SOCIETÀ

Intelligenza artificiale: un codice etico per l'Unione Europea

A giugno di quest'anno la Commissione europea aveva nominato un gruppo di 52 esperti (High-level expert group on Artificial intelligence) selezionati dal mondo accademico, dell'industria e della società civile, e aveva loro assegnato un ruolo di consulenza per l'implementazione delle politiche sull'Intelligenza artificiale. Tra gli obiettivi preposti vi era lo sviluppo di una piattaforma aperta di discussione, l'Alleanza europea per l'intelligenza artificiale (European AI Alliance); e l'elaborazione di alcune linee guida etiche associate alle sfide legali e socio-economiche che si associano alla diffusione delle tecnologie di intelligenza artificiale.

Oggi questo codice etico è stato pubblicato e attraverso la European AI Alliance è possibile inviare riscontri fino al 18 gennaio: “Dite la vostra” (have your say), questo è l'invito aperto rivolto a tutti. Una volta integrati i commenti e le posizioni critiche a marzo dell'anno prossimo uscirà la versione finale.

Tra i membri del gruppo di esperti vi sono anche 4 italiani: Andrea Renda (ricercatore del Centre for European Policy Studies di Bruxelles), Giuseppe Stefano Quintarelli (presidente dell'Agenzia per l'italia digitale), Luciano Floridi (università di Oxford, intervistato da Il Bo Live) e Francesca Rossi (università di Padova, in aspettativa al centro di ricerca Ibm di Yorktown Heights, New York).

Intervista a Francesca Rossi, uno dei 52 membri del gruppo di esperti che ha redatto il codice etico sull'Intelligenza artificiale

Cinque principi etici che dovrebbero sorreggere lo sviluppo e la diffusione dell'Intelligenza Artificiale erano già stati elaborati dal gruppo AI4People e pubblicati sulla rivista Mind & Machine a dicembre. In quel documento venivano delineate alcune raccomandazioni rivolte alla classe politica, nazionale e sovranazionale, e venivano identificati 5 principi, ribaditi ora nel nuovo codice etico: fare del bene (beneficence), non fare del male (non-malefiecience), autonomia (autonomy), giustizia (justice) e trasparenza (explicability).

A questi vengono aggiunte 10 linee guida necessarie secondo gli esperti a rendere applicativi i principi.

Cruciale in queste nuove linee guida è il ruolo della dignità umana, posta al centro del discorso etico sull'intelligenza artificiale. L'IA non dovrà mai danneggiare gli esseri umani (ma pure gli animali o la natura); questa tutela dovrà essere garantita sotto diversi profili: quello della dignità, della sicurezza fisica, psicologica e finanziaria. Centrale il concetto di autonomia, quella umana, poiché le macchine intelligenti dovranno sempre operare in favore della realizzazione dell'autonomia dell'uomo e mai riducendola. Va evitata dunque un'eccessiva dipendenza dall'IA proprio per salvaguardare l'autonomia dell'uomo. È indispensabile inoltre che i meccanismi di funzionamento di questi dispositivi siano trasparenti, accessibili e in linea di principio comprensibili a tutti, in modo tale che lo sfruttamento delle loro potenzialità vada a beneficio della collettività e non del singolo e in modo che non venga permessa alcun tipo di discriminazione nei confronti delle minoranze

Il documento, redatto in osservanza della Carta Europea dei Diritti, si rivolge alle aziende e ai soggetti che vorranno operare in Europa e che da oggi dovranno attenersi alle linee tracciate dal documento. Non si potranno identificare individui, o raccogliere dati su di loro o sul loro comportamento, senza il loro consenso. L'IA dovrà sempre essere progettata in modo tale da permettere all'uomo di intervenire sulle decisioni prese automaticamente e, eventualmente, direttamente sull'algoritmo, modificandolo. l'IA non potrà essere usata per manipolare l'essere umano, per estrapolare dati personali sensibili e per creare profilazioni.

Queste linee guida si traducono in paletti ben precisi quando si viene ai casi concreti. Un algoritmo non potrà mai essere progettato e utilizzato al fine di togliere una vita umana: ai robot non potranno essere affidate armi mortali. Non è tuttavia ancora chiaro come le auto a guida autonoma si dovranno comportare di fronte ad alcuni dilemmi morali. Il codice sancisce inoltre che in Europa non saranno ammessi sistemi di sorveglianza, di raccolta dati e di profilazione di massa, attraverso piattaforme, telecamere o altri sistemi. Il sistema giuridico potrà affidarsi a sistemi di elaborazione automatici ma questi non potranno avere mai l'ultima parola sull'amministrazione della giustizia.

Esiste anche un paragrafo dedicato alle problematiche che si potrebbero presentare sul lungo termine e un punto riguarda la coscienza artificiale, scenario a dir poco controverso, ma a dire il vero ancora molto distante: laddove venissero creati sistemi auto-coscienti capaci di provare sentimenti, questi soggetti dovrebbero solo aiutare l'uomo a prendere decisioni eticamente responsabili e non sostituirsi ad esso.

Ma come sappiamo da numerose rappresentazioni di science-fiction, il superamento di queste regole è all'interno delle regole stesse. Vengono alla mente I, robot di Isaac Asimov e la più recente serie televisiva Westworld in cui le regole di progettazione, che pure mirano a mantenere i robot al servizio dell'uomo, portano necessariamente e paradossalmente alla ribellione nei confronti dell'uomo stesso.

Un altro problema da gestire sarà il processo si auto-apprendimento: l'algoritmo è costruito per correggere gli errori, tendendo nel tempo a un'ideale ottimizzazione del processo. Ma proprio questa ottimizzazione potrebbe imboccare strade che non sono compatibili con i paletti posti in partenza.

I piani dell'Europa sono ambiziosi, ma probabilmente insufficienti per competere a livello globale con chi sul settore ha già puntato da molto tempo: Usa e Cina. La Commissione europea prevede un piano complessivo da 20 miliardi di euro, ma ha stanziato soltanto 1,5 miliardi provenienti da fondi pubblici, mentre la Cina parte da 13 miliardi a cui verranno aggiunti gli investimenti dei privati.

Horizon 2020 ha fino ad ora finanziato più di 18.000 progetti di ricerca sull'IA spendendo più di 30 miliardi di euro. Ha inoltre impegnato 1,5 miliardi di euro esclusivamente nella ricerca in ambito etico, aspettandosi che altri 2,5 miliardi arrivino da finanziamenti pubblici e privati. Sono invece previsti almeno 7 miliardi di investimenti tra i programmi di Horizon Europe (2021 – 2027) e Digital Europe.

Paesi diversi mettono in campo culture diverse per affrontare le grandi sfide provenienti dalle nuove tecnologie e dal loro utilizzo. Dinanzi all'ineguagliabile potenza di fuoco dei rivali, il punto di forza della vecchia Europa potrebbe essere proprio il dibattito pubblico e l'investimento in una diffusa cultura dell'utilizzo responsabile di queste tecnologie. In Cina la collettività viene prima dell'individuo e l'IA viene vista come un imprescindibile strumento di amministrazione della società. L'obiettivo cinese è quello di arrivare ad avere un mercato da 150 miliardi di dollari entro il 2030, impiegando senza troppe esitazioni anche tecnologie considerate lesive della libertà individuale: i sistemi di riconoscimento facciale in estremo Oriente vengono già utilizzati per catalogare il comportamento degli individui nella vita di tutti i giorni, a ciascuno di loro viene assegnato un vero e proprio punteggio che poi peserà per l'assegnazione di un mutuo o di un posto di lavoro. Se ad esempio un individuo è abituato ad attraversare la strada fuori dalle strisce, verrà visto dal grande fratello artificiale e avrà meno probabilità di ottenere in futuro una polizza assicurativa.

Oggi l'Europa, ponendo al centro delle linee guida etiche valori come la dignità umana, l'individuo, il rispetto della democrazia e della giustizia, l'uguaglianza e la solidarietà sta manifestando la volontà di non arrivare mai a rendere così invasive queste tecnologie. Le telecamere ai semafori verranno installate (molte già ci sono), ma raccoglieranno per lo più dati sui flussi di traffico e non sul comportamento delle persone, in modo tale da aiutare a progettare le politiche sulla mobilità sostenibile e non invece assegnare, come in una puntata della distopica serie Black Mirror, un punteggio sociale ai cittadini.

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012