SCIENZA E RICERCA

Il computer e il bambino

Si chiama deep learning (apprendimento profondo) ed è il ramo forse più nuovo, del machine learning (apprendimento delle macchine) che è a sua volta un grosso ramo della IA, l’intelligenza artificiale, che da sessant’anni o giù di lì ha come obiettivo principale quello di raggiungere e superare l’intelligenza umana (le intelligenze umane, perché l’uomo di capacità di comprendere la realtà che lo circonda e di risolvere problemi nuovi e sconosciuti ne ha diverse. Il deep learning è il figlio delle reti neurali sviluppate negli anni ’80 del secolo scorso ed è nipote del “connessionismo”: ovvero dell’idea che per simulare il pensiero umano occorre simulare la struttura del cervello dell’uomo.

E, infatti, gli algoritmi che seguono il modello del deep learning simulano il modo con cui i neuroni e le sinapsi di un cervello umano si modificano quando sono esposti a nuovi stimoli e a nuove esperienze. La tecnica è, in buona sostanza, induttiva. Un computer, con un opportuno algoritmo, analizza una quantità norme di dati e vi scorge delle regole. Il deep learning sta avendo grande successo. E, infatti, anche le grandi imprese dell’industria informatica, compresi i grandi motori di ricerca – da Google a Baidu (il Google cinese) utilizzano diversi prodotti che si fondano su questo metodo. Utilizzando il metodo del deep learning, infatti, un buon algoritmo è in grado di riconoscere un tumore su una radiografia prima e meglio dei medici. Un altro buon algoritmo è capace di riconoscere una faccia umana prima e meglio di noi. E altrettanto vale per la voce umana, riconosciuta prima da un computer che da una mamma. Il trucco è semplice. Trovare una faccia con precise caratteristiche tra le decine di migliaia di una città è un po’ come individuare un ago dorato in un pagliaio di biondo fieno. Per noi umani è difficile, anche se usiamo rapide semplificazioni. Se cerchiamo la faccia di un giovane maschio, per esempio, scartiamo in maniera abbastanza automatica sia quelle femminili sia quelle di maschi bambini o anziani. Ma, anche con questi tunnel scavati sotto la montagna di dati, l’impresa resta ardua. Un computer che utilizza il metodo del deep learning, invece, analizza velocemente tutti i fili di fieno del pagliaio e tra loro individua l’ago dorato, sapendo ben distinguere il fieno dal metallo, anche in presenza di fili nuovi e aghi nuovi. Tutto ciò spiega il successo straordinario che i computer hanno in certi tipi di intelligenze. Ma non realizza ancora la grande speranza dei padri della cosiddetta “IA forte”: creare macchine che “pensano come gli uomini”.

 Il metodo del deep learning non soddisfa ancora e non soddisferà mai la speranza dei padri dell’”IA forte” di realizzare macchine che “pensano come gli uomini” – sostiene Gary Marcus, docente di psicologia alla New York University e co-fondatore e amministratore delegato di una start up chiamata Geometric Intelligence – semplicemente perché non è analizzando rapidamente montagne di dati,  che gli uomini comprendono il mondo circostante e risolvono problemi nuovi e inaspettati. Quella di Gary Marcus è, a ben vedere, una critica all’induttivismo applicato all’intelligenza artificiale. Una critica condivisa da molti.

La Geometric Intelligence non si limita alla critica al deep learning. Cerca di segnare una svolta nell’ambito dell’IA, mettendo a punto algoritmi migliori e più efficaci di quelli che applicano il deep learning. Non sappiamo i dettagli di questi algoritmi, tenuti gelosamente segreti da Gary Marcus. Sappiamo però qual è il metodo generale che Marcus e i suoi vogliono adottare: insegnare alle macchine ad apprendere come fanno i bambini. Marcus, che ha 45 anni, ha studiato a lungo come apprendono i bambini: stabiliscono regole generali sulla base di pochi dati e poi verificano se la regola viene confermata. Pronti a modificarla se non regge, ma anche a riconoscere eccezioni che, pur violandola, non la smentiscono del tutto. Marcus è stato studente di Steven Pinker al Department of Brain and Cognitive Sciences del Massachusetts Institute of Technology (MIT) di Boston. E ha appreso da Pinker che i bambini apprendono a parlare e a creare frasi nuove non avendo conosciuto tutte le possibili combinazioni di parole, ma acquisendo in maniera precoce le regole sulla formazione delle frasi. Questo modo di apprendere, sostiene Marcus è generale.

Facciamo un esempio. Un bambino di tre anni vede un corvo volare e sente il padre dire che è un uccello. Poi vede un gabbiano volare e sente il padre dire che è un uccello. A questo punto ha chiaro che gli uccelli sono animali che volano, hanno le piume, un becco e una coda. Così quando vede un passero o un’aquila, non ha dubbi: questo è un uccello. Un computer che utilizza il deep learning ha bisogno di analizzare molti più dati – vedere molti più uccelli che volano – per “apprendere”         che gli uccelli sono animali con le piume, un becco, una coda e che volano.

In pratica il bambino elabora una teoria sulla base di pochi dati e poi la applica al mondo reale. Vede il passero e si accorge che la regola è confermata. Vede l’aquila e si accorge che la regola è confermata. Vede il pinguino e si accorge che… non vola. Ne inferisce che non è un uccello. Tuttavia non impiega molto a comprendere che la regola generale ammette delle eccezioni. E che, dunque, a ben vedere il pinguino è un uccello che non vola  Il metodo deep learning, sostiene Marcus, fa molta più fatica a inferire dall’esperienza che gli uccelli sono animali con piume, becco, coda che volano. E non scoprirà mai che il pinguino è un uccello che non vola.

Tutto questo – e altro ancora – Gary Marcus lo ha scritto in un libro, The Algebric Mind, già nel 2001. Ma da un paio di anni la sua teoria sull’apprendimento la vuole mettere in pratica, insegnando alle macchine a imparare come fanno i bambini. In realtà non sappiamo come alla Geometric Intelligence stanno cercando di tradurre in algoritmi l’intuizione teorica. E se davvero cercano di seguire, nell’addestramento delle macchine, le modalità di apprendimento dei bambini. Di certo, per ora, sul mercato dei prodotti informatici non c’è nulla di nuovo.

In realtà, non sappiamo neppure se mai le macchine potranno essere omologhe all’uomo o, addirittura, superare l’uomo in tutte e ciascuna le sue forme di intelligenza. Alcuni, scettici del programma dell’IA forte, sostengono che uomini e macchine sono cose diverse destinate a restar diverse. E che il computer o i robot ci supereranno in alcune dimensioni, ma non ci raggiungeranno mai in altre.

In realtà, le critiche di Gary Marcus al deep learning corroborano l’idea che la mente dell’uomo è, ancora, un mistero. E che finché non avremo una teoria della mente abbastanza solida – o, almeno, solida almeno quanto quelle che si formano nella mente dei bambini quando iniziano a esplorare il mondo – difficilmente potremo trovare una risposta a una domanda più antica dell’IA forte e ancora attuale: potranno mai le macchine apprendere e pensare come gli uomini o c’è una irriducibile diversità? 

Pietro Greco

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012