SOCIETÀ

Intelligenza artificiale: rischi, opportunità ed etica

Negli anni '40 del Novecento esistevano diversi ambiti in cui i processi di automazione e di elaborazione dell'informazione venivano studiati: la cibernetica di Norbert Wiener, la teoria matematica delle comunicazioni di Claude Shannon, la teoria degli automi cellulari di John Von Neumann tra le altre.

Il termine Intelligenza Artificiale fu coniato nel 1955 da John McCarthy, organizzatore l'anno seguente della famosa conferenza di Dartmouth, un consesso di cervelli durato circa 2 mesi che oggi viene ricordato come l'evento fondativo degli studi sull'Intelligenza Artificiale.

Secondo Alan Turing, altro padre nobile della disciplina, per stabilire se una macchina sia intelligente o meno occorre che questa superi un test che prende spunto dal “gioco dell'imitazione”: un uomo e una macchina sono separati da un terzo partecipante che pone domande ai primi due da dietro una parete; se il terzo partecipante non è in grado di distinguere chi sia l'uomo e chi la macchina, si potrà dire che quest'ultima avrà superato il Test di Turing.

Nel tempo sono state proposte diverse varianti del test di Turing, alcune con criteri più stringenti di altre. Sebbene non esista un consenso condiviso su cosa voglia dire macchina intelligente, oggi l'Intelligenza Artificiale è entrata sia nel vocabolario corrente sia nei mercati, da quello della mobilità a quello del lavoro. Oggi teniamo in tasca dispositivi da un potere computazionale che la Nasa non aveva a disposizione quando per la prima volta portò l'uomo sulla luna. Google nel novembre 2016 ha introdotto un sistema di cosiddetto deep learning (o machine learning) che sfrutta l'intelligenza artificiale per migliorare le prestazioni di apprendimento del suo sistema di traduzione Google Translate. Questi sistemi si nutrono di dati, un diluvio di dati, che vengono elaborati nella scatola nera computazionale per esibire un comportamento che visto da fuori può sembrare intelligente.

Il nostro comportamento in società produce in continuazione dati che vengono registrati da dispositivi tecnologici sempre più presenti nella quotidianità. Non esiste più l'analogico da una parte e il digitale dall'altra, persino la nostra lavastoviglie è regolata da un software e nella cucina del futuro la lavastoviglie potrà comunicare con i fornelli e con il frigorifero, nella Internet of Things, l'interconnessione delle cose. Non esiste più un tempo online e uno offline, esiste solo l'onlife, viviamo nell'infosfera, siamo sempre connessi, produciamo dati di continuo e lasciamo che qualche super-computer in qualche scantinato elabori questi big data.

Secondo Luciano Floridi, docente di filosofia e etica dell'informazione all'università di Oxford, direttore del laboratorio di etica digitale dell'Oxford Internet Institute e membro dell'Alan Turing Institute, questa quarta rivoluzione industriale presenta rischi e opportunità che vanno governati. Per affrontare le sfide del nostro tempo "serve un'alleanza tra verde e blu, tra ambientalismo e digitale, per la sostenibilità", spiega in questa intervista.

Intervista a Luciano Floridi, Professore di filosofia e etica dell'informazione all'università di Oxford

Floridi lavora a stretto contatto con la Commissione Europea, essendo anche membro dell'EU’s Ethics Advisory Group on Ethical Dimensions of Data Protection. Assieme ai colleghi del gruppo AI4People (il primo forum europeo sull'impatto dell'Intelligenza Artificiale sulla società), ha redatto un documento che verrà pubblicato sulla rivista Mind and Machine a dicembre in cui vengono delineate 20 raccomandazioni rivolte alla classe politica, nazionale e sovranazionale, che dovrà guidare questa transizione; vengono inoltre identificati 5 principi etici che dovrebbero sorreggere lo sviluppo e la diffusione dell'Intelligenza Artificiale: beneficence, non-malefiecience, autonomy, justice e explicability.

Di particolare importanza è il concetto di autonomia. L'Intelligenza Artificiale ci offre l'opportunità di dare più autonomia all'essere umano, non solo nei termini di sollevarlo da lavori gravosi, ma anche nel senso dell'autorealizzazione.

Le capacità delle macchine calcolatrici possono aiutare l'uomo a realizzare obiettivi che oggi gli sono preclusi, dalla gestione dell'ambiente e delle risorse energetiche alla coesione sociale. La tecnologia digitale deve diventare alleata dell'ambientalismo, secondo Floridi, attraverso nuovi sistemi per il rilevamento che sfruttino ad esempio droni o satelliti. Si stima che nel 2050 gli agglomerati urbani saranno sempre più popolosi e le complessità di queste città andranno gestite anche attraverso le tecnologie digitali intelligenti.

Ma un uso sbagliato di queste tecnologie potrebbe invece arrivare a togliere autonomia all'essere umano, rendendolo dipendente e subordinato ad esse. Le capacità umane devono venire esaltate dall'uso di questi mezzi, non sostituite da esse, pena l'erosione dell'autodeterminazione dell'uomo. Secondo Floridi, occorre dunque agire per tutelare e preservare la presenza e la responsabilità umane.

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012