SOCIETÀ

Perché ChatGPT ha bisogno di regole

Un'intelligenza artificiale non regolamentata sarà, nel complesso, una cattiva intelligenza artificiale”: uno strumento potentissimo che, se lasciato in maniera poco trasparente nelle mani di pochi, rischia di compromettere il vivere civile e la stessa democrazia. È netta la dichiarazione della Digital Humanism Initiative, gruppo internazionale di studiosi nato con l’obiettivo di tenere aperto il dibattito su uno sviluppo tecnologico che sia davvero centrato sulla persona.

Un contributo da tenere presente per affrontare un tema divenuto incandescente negli ultimi giorni: se infatti Open AI alla fine ha accettato di collaborare con il Garante per la Privacy, d’altra parte il sito del popolare generatore di linguaggio rimane al momento irraggiungibile dall’Italia. Una situazione che continua a destare polemiche feroci, soprattutto da parte di chi vede nel provvedimento uno stop alla ricerca e allo sviluppo tecnologico.

“Aspetti tecnico-giuridici a parte, è importante sottolineare che ogni tecnologia è intimamente politica: anche l’Intelligenza Artificiale (IA) non può essere dunque lasciata all’arbitrio degli informatici e agli operatori economici” commenta Viola Schiaffonati, docente di logica e di filosofia della scienza al Politecnico di Milano e membro del comitato direttivo della Digital Humanism Initiative, oltre che direttrice del Laboratorio CINI Informatica e Società. “Chat GPT è molto potente, per certi versi strabiliante, ma è solo la punta dell’iceberg di un ambito molto più ampio – continua la studiosa –. Spesso però non siamo ancora abituati a considerare adeguatamente l’impatto sociale dei nostri manufatti, come se fossero destinati a stare in un vuoto pneumatico: ognuno di essi incorpora invece più o meno intenzionalmente una serie di valori e di scelte politiche”.

In che senso professoressa?

“Un algoritmo ad esempio può discriminare certe categorie di persone per volontà dei programmatori, oppure perché viene ‘allenato’ sulla base di determinati dati. Pensiamo però anche ai dossi artificiali per le auto o ai tornelli della metropolitana: anche tecnologie apparentemente più semplici orientano i nostri comportamenti e dunque anche il nostro agire morale. Dovremmo semplicemente prenderne coscienza”.

Perché?

 “Gli oggetti tecnologici vanno inseriti in un più ampio panorama sociale dato che la loro concezione, progettazione, realizzazione e uso sono sostanzialmente frutto di decisioni umane, spesso prese in maniera non trasparente. Per questo soprattutto le future generazioni di specialisti in ambito tecnologico e scientifico non potranno più lavarsi le mani delle conseguenze del loro lavoro, ma dovranno essere consapevoli di questi problemi e del fatto che ad ogni step della progettazione corrispondono scelte che consapevolmente o inconsapevolmente determinano ricadute con impatti importantissimi: parliamo infatti di tecnologie sempre più potenti, che influenzano in maniera radicale la vita degli individui nella loro singolarità e delle società. Per questo Enrico Nardelli, docente a Tor Vergata e membro del comitato di gestione del laboratorio CINI di Informatica e Società, dice che l'informatica è oggi troppo potente per essere lasciata esclusivamente nelle mani degli informatici”.

Tra i problemi da affrontare, nel regolamentare le moderne tecnologie come ChatGPT, c’è l’alto grado di immaterialità, che rende ad esempio arduo trovare un foro competente, e il fatto che il loro stesso tasso di innovazione rende difficile prevederne le conseguenze.

“Si tratta di concetti discussi fin dagli anni ’80, agli albori della computer ethics. Già in un articolo del 1985 intitolato What is computer ethics? James H. Moor parlava di Policy Vacuum, dovuti al fatto che le nuove tecnologie informatiche non corrispondevano completamente alle vecchie regole di cui disponevamo. Un hacker che sottrae una somma minima da un gran numero di conti correnti on line tecnicamente compie sempre un furto, ma anche dal punto di vista morale lo percepiamo in maniera diversa rispetto a un rapinatore. Ecco, secondo Moor filosofia ed etica servono proprio a riempire questi vuoti, fornendo un sistema di analisi concettuale che è fondamentale in ogni ambito del sapere e che va quindi trasmesso alle nuove generazioni”.

Che fare allora?

“Dal punto di vista della formazione occorre innanzitutto adottare approcci interdisciplinari che mettano insieme persone provenienti da ambiti diversi: un po’ come facciamo nel Laboratorio CINI Informatica e Società, dove fianco a fianco con informatici e ingegneri lavorano anche giuristi, filosofi e sociologi. Anche nel settore privato però bisogna imparare a considerare sempre le conseguenze delle proprie azioni, senza usare l’etica come un bollino da mettere su un prodotto per seguire una moda. Non possiamo più rimandare, la posta in gioco è altissima”.

I governi da questo punto di vista come stanno agendo?

“Negli Usa ad esempio dal 2022 è stato introdotto l’AI Bill of rights, ma anche l'Ue sta andando verso scelte abbastanza radicali con l’Artificial Intelligence Act, proposto l’anno scorso dalla Commissione Europea ed attualmente in discussione in Parlamento, dove però sta incontrando diverse resistenze. Nel caso europeo l’approccio scelto è basato sull’idea che per le applicazioni dell’IA esistano diversi livelli di rischio: da quello assolutamente inaccettabile, come per il riconoscimento biometrico a scopo di sorveglianza o il Social Scoring, a rischi alti, accettabili o bassi. L’aspetto interessante che però voglio sottolineare è che il testo parte da un documento etico: le Ethical guidelines for trustworthy AI del 2019”.

Qualcosa dunque si sta muovendo.

“Certo, ma dovremmo imparare che non basta legiferare ex post: certi problemi vanno se possibile anticipati. Non dico che tutto può essere risolto by design, con una buona progettazione, perché anche avendo in mente valori positivi ci sono comunque sempre conseguenze e problemi inattesi; come però dicevo è fondamentale formare progettisti sempre più consapevoli: la tecnologia non è mai neutra”.

È giusto quindi porre dei limiti anche allo sviluppo tecnologico?

“Abbiamo la fortuna di vivere in un contesto in cui almeno in linea ideale la democrazia esiste; come cittadini dobbiamo farci parti attive di una visione critica: la tecnologia non si sviluppa da sola, e noi non dobbiamo essere destinati ad esserne completamente succubi”.

Speciale Intelligenza Artificiale

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012