Ho letto molti libri sull’intelligenza artificiale e uno dei più interessanti finora è quello scritto dalla matematica inglese Hannah Fry dal titolo: Hello World. Essere umani nell’era delle macchine. Vale la pena soffermarsi sul titolo perché contiene due elementi fondamentali che caratterizzano il libro e che compongono la tesi che sostiene l’autrice. La prima parte “Hello World” fa riferimento a quel misto di stupore e magia per ciò che le macchine sono in grado di fare. Far scrivere al computer la parola “Hello World” è il primo esercizio per chiunque voglia imparare a programmare. In quel “Ciao Mondo” c’è tutta la potenza del computer e delle sue capacità di calcolo che superano di gran lunga, oggi più che mai, le nostre abilità nella gestione dei dati. Il nome francese per computer, ordinateur, rende forse in modo più esplicito la caratteristica dei computer, quella di mettere ordine in un mare di informazione. E qui entrano in gioco gli algoritmi che sono il modo attraverso il quale possiamo dare istruzioni ad un computer per eseguire un compito e raggiungere un obiettivo. Gli algoritmi sono, secondo la definizione dell’autrice, operazioni matematiche che alimentate con dati provenienti dal mondo reale estraggono una serie di informazioni che ci sono utili per risolvere dei problemi. Ognuno di noi sperimenta la potenza di questi algoritmi, dall’utilizzo di Google per trovare un ristorante ai programmi di georeferenziazione (maps, waze) che ci consentono di orientarci con grande facilità su un terreno sconosciuto.
Questi sono servizi che oggi consideriamo banali e ai quali difficilmente pensiamo di poter rinunciare. Il motivo per il quale questi servizi ci piacciono così tanto è che ci aiutano nello svolgere compiti nei quali non siamo particolarmente bravi. Come le scienze cognitive hanno messo ampiamente in luce, la nostra mente ha dei noti limiti nella gestione delle informazioni. Non siamo nati per eseguire calcoli: ci costa molta energia e spesso sbagliamo. Da qui nasce l’irresistibile fascino che il computer e gli algoritmi esercitano nei nostri confronti: sono in grado di fare calcoli complessi senza (apparentemente) mai sbagliare. Ci consentono di superare i nostri limiti nel modo con cui elaboriamo le informazioni e prendiamo le decisioni.
Molte ricerche hanno dimostrato il modo spesso distorto (bias) con il quale la nostra mente prende delle decisioni: siamo influenzabili dagli altri e dal contesto nel quale siamo inseriti e molto spesso questo ci porta a prendere delle cantonate. Anche in ambiti molti delicati come il sistema giudiziario è stato dimostrato come e quanto i giudici sbagliano nel prendere le loro decisioni: ad esempio se il giudizio sulla libertà su cauzione viene effettuato poco prima di pranzo è maggiore la probabilità che l’imputato finisca in carcere rispetto alla stessa decisione presa dopo pranzo.
Si può ben comprendere la grande fiducia che riponiamo negli algoritmi e il loro crescente uso in ambiti sempre più importanti per la nostra società come il sistema giudiziario, le analisi mediche, la prevenzione del crimine, la guida delle automobili, ecc. L’obiettivo che anima tutte queste applicazioni è dettato dalla necessità di prendere decisioni migliori, e nello specifico di avere una giustizia davvero imparziale, di poter prevenire il crimine, di ridurre il numero di incidenti sulle strade, di poter diagnosticare i tumori senza errori e così via.
Come ben testimonia la dettagliata ricerca condotta dall’autrice, i risultati dell’applicazione degli algoritmi non si sono fatti attendere, ad esempio negli Stati Uniti, dove un software come PredPol oggi aiuta le forze dell’ordine ad anticipare le aree nelle quali con maggiore probabilità possono avvenire dei crimini. Alcuni studi riportano risultati notevoli: in una cittadina vicino a Los Angeles, Alhambra, nei quattro mesi di utilizzo del software, i furti in appartamento sono diminuiti del 32% e furti di automobili del 20%.
Tutto perfetto? Non proprio. E qui entra in gioco la seconda parte del titolo “Essere umani nell’era delle macchine” dove l’autrice si interroga sulla reale efficacia dell’applicazione di questi strumenti alla nostra società e ci aiuta a riflettere sugli algoritmi in modo più disincantato. Hannah Fry presenta molti casi problematici nell’uso degli algoritmi come quello di Steve Talley un normale cittadino americano scambiato per errore da un software di riconoscimento facciale dell’FBI per un pericoloso rapinatore di banche. Steve Talley è stata arrestato in modo brutale, ha riportato diverse lesioni (alcune gravi), ha passato due mesi in un carcere di massima sicurezza e c’è voluto più di un anno perché venisse riabilitato definitivamente. È vero che gli algoritmi sono molto più bravi degli esseri umani nel riconoscere i volti ma fino a che punto siamo disposti ad usarli nelle attività quotidiane? Quanti Steve Talley siamo disposti ad accettare in cambio di una migliore prevenzione del crimine?
Gli algoritmi oggi vengono quotidianamente usati nei tribunali americani per decidere l’entità della pena sulla base della probabilità di recidiva. È sempre la giuria popolare a decidere ma difficilmente contraddice il responso dell’algoritmo. Il risultato è che gli imputati neri hanno maggior probabilità di restare in carcere, perché considerati a maggior rischio di recidiva. Qui il problema è legato ai dati sui quali si basa l’algoritmo che sono viziati dal fatto che storicamente negli Stati Uniti i neri subiscono molti più arresti rispetto ai bianchi. Questa sproporzione nei dati di partenza si riflette in una maggiore probabilità nel calcolo del potenziale di recidiva. Ora l’algoritmo funziona anche troppo bene, è statisticamente ineccepibile, ma siamo sicuri che questo non corrisponda alla violazione del principio di giustizia e di equità? Non dovremmo essere tutti uguali davanti alla legge? Non meritiamo di essere giudicati individualmente e non “statisticamente”?
Questo quadro diventa ancora più problematico se pensiamo che molti di questi algoritmi sono per lo più protetti da copyright e quindi non è possibile capire il modo in cui realmente funzionano, quali sono le loro assunzioni, quali parametri utilizzano per i calcoli. In sostanza stiamo applicando questi sistemi senza avere una chiara cognizione dei loro meccanismi di funzionamento. L’amara scoperta è che gli asettici algoritmi hanno i loro bias e sono meno imparziali di quanto si possa immaginare. Hello Word non è perfetto. La macchina non ha sempre ragione, non possiamo quindi avere una fiducia incondizionata.
Come uscirne? La soluzione, dice l’autrice, non è tornare a vivere al bel mondo antico senza algoritmi. La loro utilità è fuori discussione, anzi ne avremo sempre più bisogno per affrontare gli importanti problemi che la nostra società deve risolvere come la sostenibilità ambientale e la salute del nostro pianeta. Il punto è come far in modo che umani e algoritmi possano convivere assieme, aiutandosi. L’esempio più convincente che l’autrice porta è quello degli algoritmi di analisi delle cellule tumorali che sono stati progettati non per sostituire i patologi ma per aiutarli riducendo il numero di aree sospette da esaminare e lasciando ai patologi la decisione finale. Come dice Fry “L’algoritmo non si stanca mai e il patologo sbaglia di rado”. La collaborazione uomo-machina in questo caso porta all’incredibile livello di precisione del 99,5%!
Invece di opporci agli algoritmi, continua Fry, dovremmo investire le nostre migliori risorse per progettarli in modo tale che ci aiutino a decidere e non ci diano soltanto istruzioni o la soluzione che ritengono essere la più probabile senza averci spiegato in che modo sono arrivati a quella conclusione. In altri termini dovremmo, come umani, avere maggiore consapevolezza dei loro meccanismi di funzionamento, e maggiore trasparenza per poter eventualmente intervenire quando inevitabilmente anche gli algoritmi sbagliano.
Pensando alle conclusioni a cui è giunta Hannah Fry, mi è venuto in mente un libro scritto nel 1993 dallo psicologo cognitivo Donald Norman. Il libro intitolato Le cose che ci fanno intelligenti è un trattato che si concentra sul ruolo centrale del design nella progettazione degli artefatti cognitivi (computer, smartphone, algoritmi, ecc.) in modo tale che siano in grado di migliorare/potenziare le nostre capacità. In altri termini che riescano a renderci più intelligenti e non ci facciano essere più stupidi. Forse, e questa è una proposta, proprio il mondo del design è quello più attrezzato oggi per affrontare la sfida di progettare algoritmi in grado di renderci più intelligenti.
Il problema non è tanto nel fare delle grafiche più o meno di grido ma quello di permettere un uso ragionato e consapevole di questi sistemi attraverso delle interfacce appropriate, cercando di dare un senso ai dati raccolti e al funzionamento degli algoritmi. Su questo aspetto l’Italia con la sua attenzione al design potrebbe giocare un ruolo importante contribuendo non tanto alla produzione di nuovi algoritmi quanto a facilitarne l’uso da parte degli utenti. Si tratta sicuramente di una sfida visto che il nostro paese è specializzato in prodotti tradizionali. Ma è una sfida che possiamo cogliere vista la nostra grande attenzione e cura verso il consumatore e le modalità di utilizzo del prodotto. Anche l’accesso agli algoritmi dovrà in futuro tenere conto del diverso livello di interesse e delle caratteristiche dell’utilizzatore. Il su misura, sul quale siamo molto bravi, potrebbe tornare utile.