SOCIETÀ

Come rendere equa e utile l'intelligenza artificiale

Silvana Badaloni lo afferma convintamente. Se lasciamo che gli algoritmi riflettano i pregiudizi di chi li programma ed educa rischiamo di trovarci pieni di macchine pensanti che rinforzano le discriminazioni che stiamo cercando faticosamente di contrastare. “Molti dicono che da tempo è iniziata l'era dell'algoritmo che può portare alla dittatura dell'algoritmo sulla conoscenza” ed è qui che si annida un rischio reale, e cioè che si finisca con l’aumentare, l’incentivare le disuguaglianze, che diventano così perfino disuguaglianze algoritmiche.

Un algoritmo, ci spiega Badaloni, già docente di intelligenza artificiale al Dipartimento di ingegneria dell’informazione dell’università di Padova, “consiste in una sequenza di istruzione in base alla quale il calcolatore elabora un processo di calcolo”. L’obiettivo è ottenere un risultato concreto e reale.

Gli algoritmi riproducono gli stessi bias già esistenti nella nostra società

Oggi, continua Badaloni, siamo entrati pienamente nell’epoca di quella che chiamiamo intelligenza artificiale. L’architettura dell’AI, la sigla che indica la forma abbreviata della dicitura inglese artificial intelligence, è composta da due parti. Una è quella simbolica, che applica al sistema automatico le tecniche di ragionamento logico, simbolico. L’altra è il cosiddetto machine learning, basata sull'apprendimento automatico, che avviene attraverso una sorta di ‘istruzione’ al sistema.

Ed è qui, nel momento dell’addestramento, che possono nascere alcuni problemi di distorsione, di bias, per due motivi. Il primo è che gli algoritmi sono programmati e addestrati da persone e di quelle persone rischiano di riflettere anche i pregiudizi, consapevolmente o meno. Il secondo è che nella fase di addestramento si usano dati, molti dati, per indicare all’algoritmo le categorie da riconoscere e attribuire. In altre parole, mentre insegno a un algoritmo a ‘distinguere’ una categoria da un’altra, i dati che fornisco non sono neutri, sono a loro volta categorizzati, classificati, descritti. E l’algoritmo, sottolinea Badaloni, “cattura tutti i problemi collegati ai dati, li sussume e li propaga”. 

Non è difficile costruire un algoritmo di classificazione, e anzi questi sono quelli più di successo, perché danno prestazioni molto rapide e applicabili. E tuttavia, appunto, possono amplificare addirittura i bias che già sono diffusi nella società, come i bias di genere, quelli etnici, di discriminazione tra ricchi e poveri. Sappiamo che “i bias sono distorsioni inerenti il sistema di conoscenza condivisa nella società”, prosegue Badaloni, una conoscenza che è basata e che incorpora stereotipi e pregiudizi. Se noi viviamo in un mondo di bias, gli algoritmi difficilmente ne sono esenti. 

Una maschera bianca per essere riconosciuta 

“C’è ancora troppa poca attenzione al modo in cui i dati sono raccolti e organizzati nei dataset utilizzati per l'addestramento degli algoritmi” e dunque, spiega ancora Badaloni, ed è qui che si verificano i problemi principali. Ci sono moltissimi esempi che dimostrano come ad esempio l’addestramento di un sistema di machine learning con tonnellate di immagini di persone dalla pelle bianca renda poi molto difficile allo stesso sistema individuare e identificare una persona dalla pelle scura. Un fatto che è stato ampiamente raccontato e commentato da Joy Buolamwini, ricercatrice coder al MIT Medialab e poi, in seguito alla propria esperienza, fondatrice della Algorithmic Justice League. Buolamwini si è resa conto che l’algoritmo con cui stava lavorando non riconosceva la sua faccia, in quanto persona di colore. E che tornava a essere ‘vista e riconosciuta’ dalla macchina solo se indossava una maschera bianca

Esempi di discriminazioni di questo tipo ce ne sono ormai moltissime: sistemi che automaticamente assegnano determinati compiti o titoli agli uomini o alle donne, in base a una ipotetica categorizzazione dei lavori più indicati per l’uno o l’altro genere. Sistemi che attribuiscono indici di pericolosità, ad esempio stimando il rischio di recidiva, alle persone arrestate per un reato, e che sistematicamente indicano come più pericolose quelle di pelle non bianca. 

E dunque, conclude Badaloni, per ridurre il rischio di decisioni non corrette e ingiuste, è necessario lavorare prima di tutto sulla conoscenza, sulla consapevolezza del problema. Per esempio, all’Università di Padova, nel contesto del corso di laurea in Ingegneria informatica ma aperto a tutti e tutte le studenti dell’Università, è stato attivato un corso in partenza nel II semestre di quest’anno accademico che si focalizzerà sui “Saperi di genere ed Etica nell’Intelligenza Artificiale”, un’occasione per conoscere e approfondire le relazioni tra le tecnologie digitali e i saperi etici e di genere.  

Poi, certo, è fondamentale che a livello sia europeo che italiano siano stati formati dei gruppi di esperti che stanno lavorando a strategie di adozione di una AI di cui ci si possa fidare, che sia utile ai processi e alle necessità collettive e non amplifichi le discriminazioni già esistenti. E ci vogliono regolamentazioni che siano coerenti con le linee guida definite dal gruppo di esperti e ovviamente adottate soprattutto dalle grandi aziende che producono e utilizzano strumenti di AI. Dobbiamo ridurre la possibilità, sottolinea infine Badaloni, che “i giganti dell'informatica adottino la pratica cosiddetta di ethics washing, secondo la quale fingono di applicare linee guida e principi etici senza che ci sia un impegno reale.”

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012