SCIENZA E RICERCA

Macchine che pensano troppo

Una tecnologia sempre più in grado di comprendere, classificare e persino predire i nostri comportamenti suscita, irrimediabilmente, alcuni timori legati alla libertà, l’autonomia e la giustizia. Gli sviluppi più recenti dell’intelligenza artificiale, le cui capacità avanzano di livello in maniera esponenziale nel corso del tempo, portano con sé alcuni problemi etici nient’affatto banali nell’ambito dei rapporti sociali e delle dinamiche economiche e politiche.

“Quando le macchine pensano troppo” è il titolo provocatorio di uno dei tanti eventi organizzati in occasione dell’ultima edizione del festival della ricerca scientifica Trieste Next, che dal 22 al 24 settembre di quest’anno ha coinvolto 300 esperti di ricerca e comunicazione scientifica per discutere e divulgare temi di grande interesse scientifico e sociale come il cambiamento climatico, la sostenibilità, la medicina, la space economy e l’intelligenza artificiale.

In questa occasione il professor Luca Bortolussi, docente di computer science (Università di Trieste), la professoressa Annalisa Pelizza, sociologa della scienza (Università di Bologna), e Teresa Scantamburlo, ricercatrice in filosofia dell’etica digitale (Università Ca' Foscari Venezia), hanno partecipato a una tavola rotonda moderata da Guido Sanguinetti, direttore del Machine Learning and Systems Biology group alla SISSA di Trieste, su alcuni dei principali interrogativi etici sollevati dagli sviluppi passati, presenti e futuri dell’intelligenza artificiale.

“L’intelligenza artificiale è un ramo della scienza che cerca di costruire macchine intelligenti o che siano quantomeno in grado di riprodurre, per certi versi, alcune capacità umane”, spiega il professor Bortolussi, riassumendo rapidamente gli aspetti tecnici fondamentali dell’AI. “L’idea di fondo su cui si basa questa tecnologia nasce già negli anni Cinquanta, agli albori dell’informatica applicata alle macchine. L’obiettivo degli esperti del campo era quello di codificare in forma di regole i diversi aspetti dell’intelligenza umana per poterle poi descrivere attraverso un algoritmo, che consiste proprio in un complesso di regole che servono a operare su un insieme di dati”.

La storia dell’evoluzione di questa tecnologia arriva a un punto di svolta con la nascita dei meccanismi di apprendimento automatico che consentivano alle macchine di imparare autonomamente il modo migliore per elaborare i dati – in base al compito che dovevano svolgere – senza imporre loro alcuna regola.

“Uno dei motivi per cui questa tecnologia è esplosa negli ultimi tempi, e non cinquant'anni fa, è dovuta proprio al fatto che oggi abbiamo a disposizione una enorme quantità di dati, buona parte dei quali proviene dalla crescita dello sviluppo di internet, un luogo globale all’interno del quale ci muoviamo e in cui ogni nostra azione viene registrata sottoforma di dati. Questi vengono forniti agli algoritmi delle grandi piattaforme (come Google) le quali, attraverso meccanismi di profilazione, ci propongono informazioni, prodotti e contenuti pubblicitari personalizzati.

In questo contesto, gli attori più importanti nello sviluppo dell’intelligenza artificiale sono proprio quelli che grazie a questa tecnologia guadagnano enormi cifre. Le grandi aziende come Google, Meta, Microsoft o Apple, che sono quelle con il più alto tasso di capitalizzazione al mondo, grazie al loro potere economico diventano anche i soggetti che guidano le domande scientifiche”.

Questa realtà estremamente articolata che, come riflette Bortolussi, si basa soprattutto sull'impronta che noi lasciamo liberamente e gratuitamente nel mondo digitale in cambio di servizi, ha enormi potenzialità di impatto sociale delle quali, per certi versi, capiamo ancora poco.

“Queste tecnologie entrano nella nostra vite in maniera preponderante e, su scala più ampia, sono persino in grado di orientare l’opinione pubblica, poiché oggi questa si forma anche attraverso l’uso dei social network che, come sappiamo, si basano su meccanismi di intelligenza artificiale”, riflette il professore.

Nel delineare alcune delle principali questioni inerenti al rapporto tra nuove tecnologie e società, Teresa Scantamburlo parla del ruolo di intermediazione assunto dai sistemi di intelligenza artificiale, i quali svolgono processi di mediazione tra la domanda dell’utente (la richiesta di conoscenza che ci porta a interrogare il mondo digitale) e l’offerta (l’enorme mole di contenuti informativi e pubblicitari) presente in rete.

Come spiega la ricercatrice, esistono casi in cui questa relazione tra utenti e rete, mediata dai sistemi di intelligenza artificiale, diventa problematica. Questo non accade solo perché i contenuti che visualizziamo non vengono scelti solo da noi, bensì dagli algoritmi di machine learning che registrano i nostri comportamenti e ci propongono i contenuti che con grande probabilità attireranno il nostro interesse. “Pensiamo, piuttosto, alle app per l’apprendimento delle lingue, come, ad esempio, Duolingo”, osserva Scantamburlo. “Si tratta di un esempio perfetto di mediazione educativa, dove l’app personalizza il metodo di apprendimento in base all’utente, tarando la difficoltà degli esercizi e arrivando addirittura a predire quale sia la lezione più adeguata da proporgli in un determinato momento”.

Le app come Duolingo sono ampiamente utilizzate e, in molti casi, si rivelano effettivamente in grado di migliorare la competenza linguistica di chi le usa. Eppure, un aspetto intrinsecamente problematico di queste piattaforme riguarda quello che Scantamburlo definisce il disallineamento degli obiettivi.

Una persona che sceglie di intraprendere un percorso educativo ha solitamente lo scopo di acquisire nuove conoscenze in un contesto “aperto” che rispetta la sua libertà e che gli dà anche la possibilità di scoprire, eventualmente, che i contenuti di questa disciplina non sono di suo interesse. “Le piattaforme come Duolingo sono orientate, invece, a ottimizzare tre aspetti in particolare” spiega Scantamburlo. “Il primo è l’engagement dell’utente (una relazione di “impegno” costante che la persona mantiene con la piattaforma, continuando a utilizzarla, ndr) che viene solitamente mantenuto proponendo all’utente esercizi alla sua portata che non siano né troppo difficili, né troppo facili, per evitare che si scoraggi o che si annoi, abbandonando, di conseguenza, l’app. Gli altri due obiettivi sono l’efficacia dell’apprendimento, che mira quindi a migliorare, effettivamente, le competenze di chi la usa, e la monetizzazione.

Queste piattaforme propongono quindi un contesto di apprendimento “chiuso” che per certi versi ha un effetto rassicurante – perché permette di apprendere, divertirsi (grazie all’interfaccia ludica dell’app) e incrementare la motivazione – ma quale spazio di libertà rimane alla persona per imparare, sbagliare, scoprire argomenti nuovi e fare esperienza dell’inaspettato?” Gli obiettivi dell’utente, in un certo senso, coincidono solo in parte con quelli della piattaforma.

Parlando invece degli aspetti più controversi del rapporto tra intelligenza artificiale e società su scala macroscopica, la professoressa Pelizza pone l’accento sulla ridefinizione del contratto sociale tra scienza, politica e società. Si tratta dell’idea, condivisa nel mondo occidentale a partire dal 1600 in poi, secondo la quale la ricerca debba essere lasciata libera di condurre attività sperimentale in nome del progresso scientifico e tecnologico senza però interferire con la politica, la morale, o la religione (attenzione: questo non vuol dire che gli attori politici non debbano tenere conto dei risultati scientifici nelle decisioni governative, ma piuttosto che chi fa ricerca non dovrebbe assumere un ruolo di prevaricazione sostituendosi, nei processi decisionali, agli organismi di governance).

“Durante la pandemia, il sistema sanitario britannico ha sviluppato, con il supporto di aziende come Google, Microsoft, Palantir e Amazon, una piattaforma che, utilizzando l’intelligenza artificiale, mappa e definisce la distribuzione dei posti letto e l’allocazione degli strumenti sanitari come, ad esempio, gli erogatori di ossigeno e i ventilatori negli ospedali inglesi, prendendo quindi delle decisioni che non sono soltanto tecnologiche”, racconta Pelizza.

“Le aziende hanno quindi messo a disposizione del servizio sanitario inglese una forma di conoscenza che non fornisce soltanto un supporto informatico, ma stabilisce i criteri secondo i quali, ad esempio, vengono presi o meno in carico i pazienti e si investe nell’allocazione dei posti letto; in questo modo, l’intelligenza artificiale stabilisce quelle regole del gioco che, nel contratto sociale a cui eravamo abituati, erano di pertinenza dei governi o della società civile. Si crea quindi una nuova forma di episteme di tipo tecnologico che si sovrascrive ad altri organi decisionali, come quelli politici, operando scelte che hanno implicazioni etiche e morali.

Assistiamo quindi a un'erosione di quel contatto sociale che abbiamo vissuto negli ultimi quattrocento anni in favore di nuove regole del gioco che hanno confini molto più labili e che non vengono stabilite da decisori politici democraticamente eletti, bensì dai fornitori dei servizi informatici. È lecito domandarsi, quindi, da dove arrivi la legittimazione di questi nuovi soggetti. Chi o cosa li rende in grado di prendere decisioni che riguardano tutti noi e di scavalcare, per certi versi, gli organismi di governance che, per quanto siano limitati, sono quantomeno rappresentazione della volontà popolare?”

Visti questi e i molti altri aspetti critici legati all’intelligenza artificiale e ai suoi utilizzi, viene spontaneo domandarsi quali ruoli e responsabilità siano attribuibili agli sviluppatori di queste tecnologie.

“Gli studi sull’intelligenza artificiale vengono condotti certamente anche nelle università e nei centri di ricerca indipendenti”, riflette Bortolussi. “Eppure, per ragioni principalmente economiche, le regole del gioco vengono dettate dalle grandi aziende le quali, naturalmente, tendono ad assumere le menti più brillanti nel campo”. Per chi lavora in questi contesti può essere difficile dare il proprio contributo alla risoluzione dei problemi appena descritti perché la loro libertà intellettuale è limitata dalla stessa raison d'être dell’azienda, che si basa sulla generazione del profitto.

“Nell'ambito dell’intelligenza artificiale e del machine learning non esiste una tradizione sperimentale come quella che caratterizza altre discipline come, ad esempio, la medicina”, aggiunge Teresa Scantamburlo. Per questo motivo, molto spesso possono venire a mancare le informazioni e i requisiti necessari che permettono di comprendere i confini entro i quali gli algoritmi possono garantire il loro funzionamento e trovare, quindi, applicazioni che siano effettivamente vantaggiose per la società.

“Qui si apre uno spazio di intervento per gli esperti di discipline sociali e studi umanistici, i quali possono aiutare gli ingegneri, i designer e gli informatici che progettano questi sistemi a esplicitare gli assunti teorici su cui si basa la tecnologia che sviluppano e a stabilire quali sono i benefici attesi per l’utenza”.

Inoltre, una pratica che potrebbe migliorare lo sviluppo di questi sistemi consiste nel coinvolgimento della società civile nelle fasi di progettazione. “Le performance di molti sistemi di riconoscimento facciale si sono dimostrate insoddisfacenti per le persone appartenenti ad alcune minoranze etniche perché il dataset utilizzato per addestrare l’algoritmo di machine learning non era sufficientemente rappresentativo della popolazione”, afferma la ricercatrice “Per questo motivo, uno dei tanti modi per coinvolgere direttamente o indirettamente cittadini e cittadine nelle fasi di progettazione, sviluppo e utilizzo di queste nuove tecnologie consiste in una raccolta più accurata dei dati”.


LEGGI ANCHE:


“Una questione diventata cruciale negli ultimi settant’anni è la difficoltà di capire come governare il cambiamento”, spiega la professoressa Pelizza. “Due sono i paradigmi principali da considerare in questo senso. Il primo riguarda la valutazione dell’impatto della tecnologia (centrale, ad esempio, nelle argomentazioni di Rachel Carson contro gli usi irresponsabili del DDT nel libro Primavera silenziosa del 1962); un altro paradigma di cui tenere conto ha a che fare con la ricerca dell’innovazione responsabile. Questa riguarda i modi in cui il contratto tra scienza, politica e società possa essere rivisto in maniera proattiva per includere nuovi attori sociali non esplicitamente previsti nel contratto iniziale”. L’esempio proposto da Pelizza riguarda la tecnologia delle macchine elettriche, i cui sviluppi originari prendevano in considerazione solo le esigenze degli autisti e dei passeggeri e non quelle dei pedoni, i quali correvano un rischio maggiore di essere coinvolti negli incidenti automobilistici a causa della silenziosità dei veicoli. “Anche per il caso dell’intelligenza artificiale è necessario stabilire una relazione più profonda non con la società civile in generale che, definita in questi termini, resta una sorta di entità astratta, bensì con i diversi gruppi di cittadini che compongono questa società, i quali devono avere la possibilità di far sentire la loro voce e costruire un rapporto diretto con questa tecnologia”.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012