SOCIETÀ

Quale etica per l’AI?

Se sempre più spesso deleghiamo agli algoritmi le nostre scelte, dobbiamo iniziare anche a riflettere sui parametri da adottare per renderle giuste e ‘umane’. Problema non da poco e che si pone fin dalla nascita della robotica con le tre leggi individuate dal genio di Isaac Asimov: oggi però ai sistemi basati sul machine learning vengono assegnate funzioni sempre più complesse, che incidono direttamente sulla vita delle persone frugando nelle enormi moli di dati raccolti senza sosta da telefonini, browser e miriadi di sensori. Dati da soppesare ma anche da proteggere, per non inchiodare le persone a destini magari appiccicati loro addosso sulla base di (umanissimi) pregiudizi.

Interviste di Daniele Mont D'Arpizio, montaggi di Barbara Paknazar

Si è parlato anche di questo a Cannes in occasione del festival mondiale dell’intelligenza artificiale di qualche giorno fa, al quale l’Università di Padova ha partecipato assieme ad otto spinoff, imprese nate in ambito accademico dalla creatività di docenti e ricercatori. Studiosi e manager di grandi aziende si sono dati appuntamento anche per parlare di come evitare che i sistemi informatici possano riprodurre o addirittura esasperare le disuguaglianze già presenti nella nostra società: per Jibu Elias, Content & Research Leader di INDIAai, organismo creato dal governo indiano,  “quello che accade oggi è che stiamo riflettendo i nostri pregiudizi nell’AI: i sistemi di machine learnig apprendono sulla base dei dati che gli forniamo, che però in molti casi sono distorti. Lo abbiamo visto ad esempio con il sistema di reclutamento predisposto da Amazon, che però alla fine selezionava solo candidati maschi bianchi. Allo stesso modo ci si è resi conto, sempre negli Stati Uniti, che l’intelligenza artificiale applicata alle richieste di libertà vigilata nel sistema penitenziario alla fine danneggiava soprattutto la comunità nera”.

Non è quindi solo un problema tecnico: i bias storici e sistemici rischiano di annidarsi dentro i codici informatici, con l’aggravante di deresponsabilizzare apparentemente i soggetti decisori. Un terreno estremamente delicato, che rischia anche di danneggiare non solo i singoli ma la comunità nel suo complesso e anche l’economia, dato che una società cristallizzata nei preconcetti rischia di essere anche meno dinamica. Alberto Giovanni Busetto, a capo della divisione Data and Artificial Intelligence di Adecco Group, evidenzia però anche le opportunità derivanti dall’AI in un ambito fondamentale come quello della selezione del personale, “dall’individuazione del talento al reclutamento delle persone, ma anche in settori innovativi e interessanti come quelli dell’ upskilling e del reskilling: la formazione aumentata e continua che porta a nuove competenze”.

Busetto ha portato a Cannes anche la sua esperienza di laureato all’Università di Padova che successivamente ha scelto proprio nelle tecnologie informatiche di ultima generazione il proprio ambito di ricerca e di crescita lavorativa, prima insegnando alla University of California, Santa Barbara, e poi intraprendendo la strada del management in settori come quello tecnologico e farmaceutico. A proposito del pericolo di importare e quindi in qualche modo consolidare anche in ambito tecnologico i pregiudizi che caratterizzano la società in cui viviamo, per Busetto “si tratta di un rischio che riconosciuto anche da noi operatori del settore, che quindi non solo ci aspettiamo in futuro una qualche forma di regolamentazione, ma intanto ci adoperiamo anche per trovare soluzioni tecnologiche e di design allo scopo di mitigare e risolvere questo tipo di problemi. Un esempio molto interessante è il privacy machine learning, che studia sistemi di apprendimento automatici in grado di preservare la riservatezza”.

Al di là delle singole questioni nella comunità di chi si occupa di AI si avverte l’esigenza di un dibattito ampio e trasversale, che sappia andare al di là del dato puramente tecnico per abbracciare l’etica e la filosofia. Ambiti dei quali si occupa Pascale Fung, direttrice del Centre for Artificial Intelligence Research (CAiRE) della Hong Kong University of Science and Technology, con un particolare riguardo ai sistemi di intelligenza artificiale che generano linguaggio (conversational AI), come il noto ChatGPT ma anche i vari assistenti vocali degli smartphone. “I chatbot sono sempre più potenti e possono arrivare ad essere scambiati per umani dagli utenti, ponendo una serie di questioni”, spiega la studiosa a Il Bo Live. La prima riguarda come insegnare loro a dire innanzitutto la verità, con il problema enorme di definire quest’ultima. Spesso infatti i chatbot attingono dai dati in rete, i quali però possono contenere non solo pregiudizi, violenza e odio, ma anche tante informazioni completamente false o inventate.

Per questo, sottolinea Fung, è particolarmente importante confrontarsi intorno ai principi da implementare nell’AI: “L’etica va oltre le leggi, che devono essere formulate in maniera estremamente chiara ma possono richiedere anni o decenni per essere emanate”. Il fatto è però che i principi etici possono dipendere da contesti e culture differenti: “Molti Paesi hanno già emanato una sorta di linee guida sull’AI; quelle UE e quelle Cina ad esempio hanno molte cose in comune, ma anche lievi differenze. In Europa c’è una specie di tecno-pessimismo, per cui si guarda soprattutto ai danni che possono venire dall’AI, in Cina si enfatizza soprattutto il bene che può derivarne, ad esempio nel portare una maggiore armonia nella società e sollecitare una maggiore collaborazione tra i soggetti”.

Speciale Intelligenza Artificiale

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012