
Quella dell’intelligenza artificiale generativa è una rivoluzione che sembra aver colto di sorpresa non solo gli utenti comuni, ma anche molti addetti ai lavori, a cominciare dai CEO delle principali aziende che sviluppano questo tipo di prodotti.
Nello Cristianini, professore di intelligenza artificiale all’Università di Bath, ne parla in Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza (Il Mulino, 2024), libro entrato nella cinquina finalista del Premio Galileo 2025.
Una struttura con pro e contro
Uno degli aspetti più riconoscibili e più godibili è la sua struttura modulare: capitoli brevi, ciascuno centrato su un tema tecnico o concettuale, spesso introdotto da un episodio personale, una digressione storica o un dialogo esemplare con l’AI generativa. L’effetto è quello di una narrazione episodica, in cui ogni capitolo funziona quasi come una micro-lezione a sé stante, senza un’esplicita progressione teorica: a ogni passaggio, il lettore si trova immerso in una narrazione autonoma, ed è una strategia efficace per mantenere alta l’attenzione, specie in un campo complesso come quello dell’IA.
Questo approccio, però, sicuramente da elogiare per la sua chiarezza, ha anche un rovescio della medaglia: l’intreccio di digressioni, esempi e memorie personali produce un testo intellettualmente frammentato, in cui ogni spunto sembra promettere una riflessione sistematica che però non arriva: i concetti si accumulano come appunti di viaggio, ma non si organizzano in una vera architettura teorica.
Cristianini è uno scienziato con una grande capacità divulgativa, e lo dimostra nell’uso di analogie (molte delle quali ben riuscite), nella semplicità con cui spiega i meccanismi alla base dell’apprendimento automatico, nella sua capacità di dialogare con il lettore. Con la logica della narrazione episodica, però, privilegia la curiosità a scapito della profondità del pensiero.
Sul filo dell’ambiguità
Il libro si propone come un itinerario divulgativo per aiutarci a capire come L’AI è arrivata fin qui e dove potrebbe arrivare, e affida la sua efficacia narrativa a una serie di scelte stilistiche e concettuali che meritano attenzione, perché Machina sapiens, pur dichiarando con onestà che l’intelligenza artificiale non ha nulla di magico, finisce a tratti per costruire attorno a essa una sorta di mitologia, quella di una nuova invenzione che ci stupisce perché fa cose per cui non l’abbiamo addestrata direttamente, e non sappiamo spiegare il perché.
Questo doppio registro, tra rigore e meraviglia, tra avvertimento e stupore, è il cuore del libro, e anche la sua principale zona di ambiguità, perché Machina sapiens rischia di appannare ciò che avrebbe potuto chiarire, e di amplificare suggestioni che, al momento, sono solo questo.
Intendiamoci: il libro non dà false informazioni, e anzi quando tratta delle basi del funzionamento dell’AI generativa è estremamente chiaro, una lettura perfetta per chi vuole avvicinarsi all’argomento per capire di più del mondo che lo circonda.
L’AI generativa è (già) autonoma?
Il problema non è tanto nei contenuti, ma è più di tono e atmosfera. Facciamo un esempio partendo da quando si parla del comportamento inaspettato dell’AI generativa: “Di alcune cose – scrive Cristianini – possiamo essere certi. Primo: il comportamento di queste nuove macchine intelligenti è diverso da quello della generazione precedente, ovvero è sicuramente cambiato qualcosa. Secondo: questa differenza non è stata pianificata da qualcuno, si è manifestata da sola, sorprendendo anche i suoi stessi creatori. In altre parole, è emersa spontaneamente.”
Non mettiamo in dubbio l’informazione, ma forse, più che “spontaneamente” era meglio usare “inaspettatamente”, perché il primo termine dà l’idea di una sorta di intenzionalità, da parte delle macchine, che è ancora tutta da provare.
Se non sappiamo esattamente come funziona l’AI, come ripete Cristianini, e quello che emerge sembra andare oltre le intenzioni progettuali di chi ha costruito gli algoritmi generando esiti imprevedibili, potrebbe esserci semplicemente sfuggito qualcosa, quindi dobbiamo procedere con ulteriori indagini.
E infatti, molte pagine dopo, è l’autore stesso a dire una cosa del genere riguardo all’apprendimento delle macchine partendo da pochissimi esempi: “Le abilità dei modelli linguistici non dipendono solo dall’algoritmo che li ha creati, che è facile da analizzare, ma anche da come questo interagisce con i dati, che sono di origine umana e non ben compresi. In questo caso il risultato è stato un comportamento imprevisto e – al momento – non interamente spiegato.”
Uno storytelling efficace
Questa ambivalenza ha una forza retorica evidente: introduce tensione narrativa, costruisce aspettativa, trasforma il lettore in testimone di un “mistero in divenire”, ma ha anche un costo analitico, perché non si limita a riconoscere che non capiamo ancora tutto, cosa assolutamente legittima, e anzi salutare quando si parla di scienza, ma tende a rendere la non spiegabilità, forse provvisoria, un fatto strutturale, se non addirittura una proprietà intrinseca del fenomeno. È un paradosso interessante: un libro che nasce per spiegare come le macchine abbiano acquisito certe abilità finisce per assumere che l’acquisizione stessa sfugga (certo, al momento) a qualsiasi spiegazione analitica, e non spinge tanto a cercare di capire cosa sia successo ma più che altro a chiedersi quali altre sorprese ci potranno essere, ventilando anche l’ipotesi di un AI che, tramite percorsi intermedi, possa procedere a operazioni controproducenti per gli esseri umani che l’hanno creata (un po’ come paradosso delle graffette in cui si immagina una superintelligenza progettata per produrre quante più graffette possibili. Un obiettivo apparentemente innocuo, sennonché l'AI, nel tentativo di massimizzare la produzione, potrebbe distruggere risorse naturali, ridurre la popolazione umana o danneggiare l'ambiente per aumentare l'efficienza. L’AI si è limitata a eseguire un ordine, ma così l'umanità e il pianeta vengono distrutti, evidenziando i rischi di un'IA che non è allineata con gli obiettivi umani).
C’è davvero da aver paura della AI?
Cristianini, nel corso del libro, dichiara che servono nuove teorie dell’intelligenza per affrontare il problema, ma questa ammissione, che nel prologo suona come un atto di rigore, nel corpo del libro viene spesso compensata da immagini e metafore che, pur non dichiarandolo esplicitamente, offrono al lettore l’illusione di una risposta, quando siamo in un settore dove la cautela è più importante che in altri. È in questo scarto tra onestà epistemologica e stile narrativo che si annida il rischio maggiore del libro: quello di dare alla complessità dell’IA un volto affascinante ma sfuggente, carismatico e sfocato. Ma, soprattutto, spaventoso.
L’autore, va detto, non afferma mai in modo diretto che dovremmo aver paura dell’intelligenza artificiale. Non lo urla, non lancia allarmi, anzi si sforza di prendere le distanze da certe retoriche catastrofiste. Eppure, tra le righe, qualcosa filtra. Alcune formulazioni, alcune scelte lessicali, alcuni titoli di capitolo sembrano suggerire che sì, forse un po’ di paura è giustificata. O quanto meno che ci troviamo in una situazione simile a quella di chi osserva un fenomeno potentissimo, non del tutto compreso, e ormai difficilmente controllabile.
Metafore inquietanti
Il titolo del capitolo 17 è emblematico: Il vaso di Pandora. L’immagine ci consegna l’idea di una forza scatenata che non può più essere rinchiusa, e che produce effetti a cascata. A sua volta, il capitolo 13 si intitola Paura, e in esso l’autore non si limita a discutere gli effetti della disinformazione o i rischi legati all’uso malevolo dell’IA, ma evoca una sensazione più diffusa: quella di una trasformazione fuori controllo, dove il problema non è tanto cosa fa l’intelligenza artificiale, quanto il fatto che non lo sappiamo più prevedere con precisione.
“ Il vero problema, il rischio più serio, non è che queste macchine possano diventare intelligenti, ma che lo siano già, in una forma che non capiamo, e che stiano influenzando il nostro mondo senza che ce ne rendiamo conto Nello Cristianini
Machina sapiens è un testo che suggerisce inquietudine senza dichiararla, che accarezza l’ignoto come se fosse inevitabile, e che — pur rimanendo entro i limiti della buona divulgazione — lascia spesso il lettore sospeso tra la fascinazione e l’inquietudine.
E forse è proprio qui che si gioca il senso del libro: non tanto nel fornire risposte, quanto nel suggerire che potrebbero arrivare troppo tardi.
Un futuro incerto che passa per inevitabile
Nel prologo di Machina sapiens Cristianini scrive:
“Non so come funzionino veramente ChatGPT e i suoi molti cugini, non lo sa ancora nessuno.”
È un atto di umiltà epistemica, che l’autore ripete più volte, con toni diversi. Ed è anche, a suo modo, un gesto di sincerità nei confronti del lettore: non stiamo leggendo il manuale di un ingegnere, ma il racconto di uno scienziato che, pur avendo seguito da vicino gli sviluppi dell’IA, riconosce che siamo ancora nel mezzo di una trasformazione i cui contorni non sono del tutto chiari.
Questa stessa dichiarazione fa risaltare un nodo problematico: nel corso del libro, Cristianini utilizza con disinvoltura termini come “intelligenza”, “comprensione” e “conoscenza”. Termini che, nel contesto della comunicazione scientifica, non possono essere usati senza precauzioni.
Il cuore del problema sta proprio qui: se dici che non sappiamo come funziona l’IA, allora usare parole come “sapere” e “capire” in riferimento alle macchine rischia di essere fuorviante, o quantomeno prematuro. Cristianini alterna momenti di prudenza a formulazioni che suggeriscono una somiglianza forte tra ciò che fanno i modelli linguistici e ciò che fanno gli esseri umani: l’impressione è che segua la corrente del pensiero della Silicon Valley, cercando di tenerla sotto controllo ma senza mai opporle una diga concettuale. In questo modo, il lettore viene portato a pensare che le macchine siano già intelligenti, in una forma magari diversa dagli esseri umani, ma non per questo meno autentica.
In questo quadro, dire che “la macchina ha imparato”, pur citando Turing, diventa non solo accettabile, ma inevitabile. Eppure, questa è la stessa dinamica che ha portato tanti commentatori a parlare dell’IA come se fosse già una mente, cosa ancora tutta da provare. Il libro Machina sapiens si muove su questa linea sottile, senza mai oltrepassarla apertamente, ma senza nemmeno segnalarla al lettore come problematica.