SOCIETÀ

Algoritmi e AI: rischi, bias, pregiudizi e opportunità

Ci sono tanti modi per sviluppare un algoritmo e per fargli fare una serie di operazioni desiderate. Dall’apprendimento supervisionato a quello non supervisionato o quello per rinforzo, ci sono diversi approcci per arrivare ad avere un sistema che impara e poi esegue e fa, eventualmente, delle scelte. Certo, non si può mai escludere a priori che un sistema automatizzato di valutazione possa compiere un errore anche quando siamo abbastanza sicuri che stia funzionando bene e che abbia imparato a sufficienza a categorizzare e a operare le distinzioni richieste.

Il tema vero però è se abbia senso, e con quali attenzioni e entro quali limiti, affidarci a una macchina per operare delle scelte al posto nostro. Nei fatti, ci dice in questa lunga intervista Guglielmo Tamburrini, filosofo della scienza presso il Dipartimento di ingegneria dell’Università di Napoli "Federico II", è difficile trovare un ambito della nostra vita in cui l’intelligenza artificiale con questi algoritmi non sia già entrato. Che cerchiamo un libro o ordiniamo una cena, ci sono degli algoritmi dietro il funzionamento delle nostre app che ci suggeriscono delle preferenze, delle scelte e delle possibilità. Ovviamente però, continua Tamburrini, la capacità di giudizio è una cosa molto complessa da articolare, anche dal punto di vista filosofico, concettuale. E questi sistemi sono in grado di compiere queste associazioni, questo riconoscimento di caratteristiche in un modo che si allontana da quello che è la nostra concettualizzazione. Diciamo che l'elaborazione dell'informazione da parte di questi sistemi avviene in modo sub-simbolico, non arriva al livello della simbolicità che caratterizza i nostri scambi e le nostre concettualizzazioni. E si tratta di sistemi che sono opachi alla comprensione, nel senso che anche se le associazioni sono corrette molto spesso non vengono accompagnate da una spiegazione. Proprio per questo è stato sviluppato un intero settore dell’intelligenza artificiale chiamato XAI, dall’inglese, explainable artificial intelligence che è un tentativo di corredare questi sistemi così bravi nel fare relazioni e associazioni con la capacità di esaminare, di fare un’ispezione della ricerca, del capire il perché hanno dato certe risposte invece che altre. 

Un altro tema chiave quando parliamo di algoritmi è il fatto che in essi si innestano i nostri stessi pregiudizi e bias cognitivi e culturali. Sia nella fase di programmazione che in quella di addestramento, gli algoritmi finiscono con l’introiettare una serie di approssimazioni, di valutazioni e di giudizi che derivano dal modo stesso in cui sono costruiti e dal pensiero e dai valori di chi li ha costruiti. In un certo senso, questo aspetto, che costituisce un problema se ad essi ci affidiamo senza la consapevolezza di questi errori, può anche costituire una opportunità, perché possono anche essere specchio dei nostri bias e ci aiutano a capire, a rendere esplicite le nostre problematiche, i nostri pregiudizi, il nostro modo di esprimere un valore quando classifichiamo oggetti, persone, concetti. L’apprendimento è un processo sociale, i dati diventano anche una fotografia della nostra realtà sociale e poter analizzare quello che la macchina ci restituisce quando la ‘nutriamo’ con certi dati ci può aiutare anche a capire meglio alcuni aspetti della nostra società.

Regole e consapevolezza

È senz’altro importante ragionare sulla regolamentazione per evitare il moltiplicarsi dei bias algoritmici. Però oltre alla regolamentazione è necessario lavorare sulla cultura, sulla consapevolezza. E quando facciamo una valutazione di impatto dei potenziali bias, è necessario farlo coinvolgendo figure molto diverse, dall'informatico al giurista, al filosofo morale, oppure alle parti interessate dalla decisione dell'algoritmo. Siamo di fronte a una grande rivoluzione, perché per la sua pervasività sempre crescente l’intelligenza artificiale sta andando a toccare una serie di problemi che etici e valoriali di carattere globale. Dobbiamo ragionare sul fatto che gli algoritmi consentono oggi una vera e propria sorveglianza globale, che però è problematica sotto molti punti di vista: la discriminazione di intere popolazioni, il rischio di inquinare i processi democratici. 

Addirittura, gli algoritmi consentono un modo del tutto nuovo di fare la guerra: hanno permesso lo sviluppo e la diffusione di armi molto particolari, le armi autonome, che in base alla loro capacità di apprendere e riconoscere particolari tipi di oggetti sono in grado di individuare obiettivi tipo militare e di decidere autonomamente, in base alla loro intelligenza artificiale, se attaccarli oppure no. Non abbiamo più, dopo l’attivazione, un essere umano che prende questa decisione, e invece questa decisione, quella di avere il potere di vita o di morte, dovrebbe rimanere pesante responsabilità degli esseri umani

Infine, un ultimo ambito in cui senz’altro dobbiamo ragionare e capire come rendere gli algoritmi utili e non nocivi, è quello ambientale: possono aiutarci a misurare e capire una serie di parametri ambientali ma al tempo stesso, lo sviluppo, i test, l’addestramento e poi l’operatività degli algoritmi richiede enormi quantità di energia per funzionare. Quali dati dobbiamo conservare? Come rendere l’intelligenza artificiale e più in generale tutto il settore dell’informatica delle comunicazioni un settore compatibile con gli obiettivi di sostenibilità ambientale? Chi dovrà prendere le decisioni?

Ecco di nuovo che rispunta l'elemento sia di tipo normativo sia di tipo etico. Perché naturalmente, conclude Guglielmo Tamburrini, non solo bisogna distribuire in modo sostenibile queste risorse ma bisogna farlo in modo equo.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012