SOCIETÀ

La battaglia legale sull’intelligenza artificiale

Lo sviluppo delle tecnologie legate all’intelligenza artificiale generativa fa sorgere sempre più la richiesta di dare regole a quello che fino ad ora è sembrato un far west. Con qualche eccezione, come si è visto nello scontro poi rientrato tra Open AI, proprietaria di ChatGPT, e il Garante per la Privacy italiano sulla protezione dei dati degli utenti: un’iniziativa espressamente lodata in una dichiarazione specifica dal recente G7 delle Autorità di protezione dati svoltosi a Tokyo il 20-21 giugno, che ha evidenziato come l’AI, se non controllata e regolamentata, possa ledere i diritti individuali e mettere a rischio gli stessi equilibri democratici.

Una settimana prima, il 14 giugno, il Parlamento europeo aveva approvato dopo due anni di discussioni il cosiddetto AI Act, che per la prima volta al mondo mira a dare una normativa organica a tutto il settore. “Il nuovo regolamento ha una finalità chiara: ridurre il più possibile i rischi associati all'adozione dell'intelligenza artificiale all'interno della nostra società – spiega a Il Bo Live l’europarlamentare Brando Benifei, che assieme a Dragoș Tudorache è stato uno dei relatori del progetto durante la discussione in aula –. Oggi la penetrazione dell'intelligenza artificiale è già significativa, nel lavoro come nella scuola e in tutti gli altri  aspetti della vita, e in futuro aumenterà ancora: per questo vogliamo essere sicuri di rendere questa tecnologia compatibile con i principi del modello sociale europeo, con un'elevata protezione dei consumatori, dei diritti fondamentali e del nostro sistema democratico”.

Intervista di Daniele Mont D'Arpizio, montaggio di Barbara Paknazar

La normativa approvata segue dunque un approccio basato sulla mitigazione dei rischi, stabilendo una serie di obblighi crescenti, a seconda delle minacce generate, per i fornitori e per tutti coloro che impiegano sistemi basati sull’intelligenza artificiale. Un approccio che vuole tutelare innanzitutto gli utenti ma che sta incontrando anche qualche resistenza, soprattutto da parte delle imprese e di alcuni operatori del settore: il 29 giugno oltre 150 tra esperti e dirigenti di grandi aziende europee come Airbus, Dassault, Renault e Siemens hanno ad esempio pubblicato una lettera aperta al Parlamento Europeo, alla Commissione e agli Stati membri, criticando il provvedimento perché questo metterebbe a repentaglio "la competitività e la sovranità tecnologica dell'Europa, senza peraltro affrontare efficacemente le sfide che abbiamo davanti”.

In realtà la regolamentazione appena approvata va a ridurre la le incombenze, i problemi e i rischi per le imprese che utilizzano l'intelligenza artificiale, dando maggiori responsabilità agli sviluppatori e introducendo anche i cosiddetti Sandbox normativi (spazi regolamentari controllati nell'ambito dei quali testare e validare temporaneamente nuove applicazioni, ndr) con l’obiettivo sostenere la nascita di nuovo business e nuove startup” risponde Benifei, secondo il quale i problemi per la competitività non deriverebbero tanto dalle regole per tutelare i diritti fondamentali delle persone, quanto dalla necessità di aumentare gli investimenti nel settore scientifico e tecnologico rispetto a competitor come Usa e Cina.

L'AI Act mira a tutelare i cittadini, ma ridurrà anche le incombenze, i problemi e i rischi per le imprese

L’entrata in vigore delle nuove regole non è comunque dietro l’angolo: “A brevissimo inizierà una negoziazione fra Parlamento Europeo, Stati membri e Consiglio, con l’impegno a concludere entro la fine dell'anno in modo da approvare definitivamente il regolamento all'inizio del 2024 – spiega ancora l’eurodeputato –. Prima della definitiva entrata in vigore bisognerà poi aspettare un certo numero di mesi, 24 o forse meno,  per permettere agli Stati membri di mettere in piedi le autorità di vigilanza e alle imprese di adeguarsi”.

Intanto si preannuncia serrato il confronto tra Parlamento e Stati membri su temi nevralgici come la tutela del diritto d’autore, la riconoscibilità dei deepfake e soprattutto sulle nuove tecnologie di controllo come il cosiddetto riconoscimento emotivo, che permetterebbe di anticipare le azioni dei soggetti con una sorta di polizia predittiva, e l’utilizzo delle telecamere a riconoscimento biometrico in tempo reale negli spazi pubblici. “Su questi punti il Parlamento ha adottato una linea molto rigida perché riteniamo che questo modo di utilizzare la tecnologia porterebbe il rischio di una forma di sorveglianza di massa, mentre dall’altra parte abbiamo alcuni governi che vorrebbero rendere utilizzabili questi strumenti entro certi limiti – conclude il Brando Benifei –. Tutto questo sarà materia di un negoziato che sicuramente non sarà semplice, ma alla fine contiamo di arrivare in qualche modo a una soluzione”.

Speciale Intelligenza Artificiale

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012