SCIENZA E RICERCA

Per un utilizzo etico del riconoscimento facciale

La tecnologia del riconoscimento facciale ha fatto notevoli passi avanti nel corso degli anni, soprattutto grazie all'utilizzo di processi di machine learning. Esistono senza dubbio molte applicazioni vantaggiose dei sistemi informatici di questo tipo, come ad esempio rintracciare i criminali, ritrovare bambini smarriti e accedere in sicurezza ai propri dispositivi elettronici e ai conti bancari. Eppure, una tecnologia in grado di riconoscere le persone si presta purtroppo molto facilmente ad applicazioni illecite.

Si tratta di un tema di cui si dibatte molto all'interno della comunità scientifica, specialmente in seguito alla richiesta, rivolta nel settembre 2019 all'editore Wiley, da parte di alcuni ricercatori che domandavano il ritiro di uno studio pubblicato nel 2018, che conteneva alcuni algoritmi in grado di distinguere i volti delle persone uiguri, un gruppo etnico pesantemente sorvegliato dal governo cinese.

Segnalazioni simili a questa vogliono evidenziare quanto sia necessario che gli studi sul riconoscimento facciale ripensino la propria etica. Come scrive Richard Van Noorden su Nature, infatti, “è importante denunciare gli usi controversi della tecnologia, ma non basta, dicono gli esperti di etica. Gli scienziati dovrebbero anche riconoscere le fondamenta moralmente dubbie di gran parte del lavoro accademico in questo campo”.
Per questo motivo, Nature ha condotto un sondaggio sull'argomento, raccogliendo le opinioni di 480 ricercatori in tutto il mondo che lavorano a studi su riconoscimento facciale, visione artificiale e intelligenza artificiale su eventuali problemi etici sollevati dall'uso di questa tecnologia.
Il 71% dei ricercatori che hanno risposto al sondaggio sono d'accordo nel ritenere che la ricerca sul riconoscimento delle popolazioni vulnerabili, come rifugiati e minoranze etniche, sia eticamente discutibile, ma altri hanno segnalato che spesso è problematico distinguere uno scopo puramente accademico da uno con fini non etici.

“Le tecnologie di intelligenza artificiale hanno funzionalità eccezionali”, sottolinea Guglielmo Tamburrini, professore di filosofia della scienza all'università Federico II di Napoli. “Pensiamo ad esempio a quei sistemi che bloccano automaticamente lo spam della posta elettronica, o che ci consigliano libri che potrebbero piacerci molto ma che non avremmo mai scoperto altrimenti.
Queste tecnologie si basano su sistemi che generalizzano a partire dall'apprendimento di dati, che possono non essere una rappresentazione bilanciata degli oggetti ai quali si riferiscono (in questo caso, la popolazione). In questo caso, possono prendere decisioni non giustificabili da un punto di vista etico, e dare luogo a delle discriminazioni. Per esempio, se un algoritmo che deve concedere un prestito bancario riceve una richiesta da qualcuno che abita in un quartiere dove i dati raccolti dicono che mediamente gli abitanti hanno una capacità di restituire i prestiti più bassa, può darsi che questa caratteristica penalizzi il richiedente, anche se si tratta di una persona che sarebbe benissimo in grado di restituire i prestiti ricevuti.
Errori simili possono essere commessi dai sistemi di riconoscimento facciale che, come sappiamo, possono commettere errori sulla base di stereotipi, alimentando forme di razzismo e discriminazioni.

Se poi consideriamo la questione da un punto di vista più generale, entra in gioco anche il problema dei meccanismi di sorveglianza che funzionano grazie all'intelligenza artificiale, che si particolarizzano nell'analisi dei dati raccolti, allo scopo di prevedere e influenzare il comportamento.
Nella nostra società occidentale, questo metodo di profilazione e previsione del comportamento viene soprattutto utilizzato per fini commerciali, anche se in casi estremi può degenerare in forme di previsione e controllo del comportamento a scapito delle società occidentali stesse. Lo scandalo Facebook-Cambridge analytica, ad esempio, ha mostrato come fosse possibile minare addirittura il valore fondante della democrazia, il voto.

In altre società, usi non etici di tecnologie come queste possono addirittura condurre a situazioni che, per certi versi, ricordano il Panopticon ideato da Bentham: una prigione progettata in modo tale che la guardia carceraria, posta all'interno di un recinto, ha una visuale su tutti i prigionieri. Questi ultimi non possono sapere se, in un determinato momento, sono davvero osservati oppure no, ma interiorizzano questa forma di controllo invisibile, consapevoli che potrebbero essere sorvegliati, pur non avendone la certezza.
In Cina, il Panopticon è diventato tutta la società e il riconoscimento dei volti gioca un ruolo importantissimo. Queste tecnologie hanno delle potenzialità notevoli, ma sono dotate anche di una capillarità, efficacia, invisibilità e inverificabilità che possono giocare un ruolo decisivo in quel genere di sorveglianza. Le ripercussioni più gravi e spaventose si vedono proprio in quegli studi che si basano sul riconoscimento facciale e sulla classificazione per etnia. Ricerche di questo tipo sono condotte senza trasparenza pubblica, proprio per la loro problematicità etica, legale e politica”.

Una delle questioni che viene sollevata da alcuni ricercatori interrogati nel sondaggio di Nature riguarda la responsabilità di chi fa ricerca in questo campo. Alcuni ricercatori credono che sia ingiusto limitare gli sviluppi di una ricerca semplicemente perché potrebbe essere utilizzata per scopi negativi, e che non si possa accusare di condotta non etica chi ha a cuore il valore puramente accademico dello studio.

“I ricercatori e gli ingegneri in questi ambiti applicativi dell'intelligenza artificiale hanno responsabilità morali particolari”, commenta il professor Tamburrini. “Dovrebbero assumere il ruolo di una “vedetta etica” in grado, per certi versi, di vedere oltre. L'intelligenza ingegneristica comprende infatti anche la capacità di prevedere come sarebbe possibile adattare queste tecnologie, che di per sé sono molto malleabili, ad altre applicazioni che possono rivelarsi eticamente problematiche.
Si tratta di una grande responsabilità, che del resto è stata presa a cuore anche da molti fisici degli anni Cinquanta che, nel momento in cui è finita la minaccia nazista, si sono impegnati per denunciare gli usi bellici dell'energia atomica e i pericoli della corsa alle armi nucleari.

Oltre a impegnarsi per promuovere le applicazioni a beneficio dell'umanità e denunciare possibili usi che metterebbero a rischio le persone e i loro diritti, gli esperti in questi campi dovrebbero mettere anche in guardia dalle limitazioni di queste tecnologie, i cui errori, per quanto rari, possono avere delle conseguenze gravissime da un punto di vista morale.
Un esempio riguarda lo sviluppo delle armi autonome, che dovrebbero essere in grado di selezionare e attaccare un obiettivo militare senza la necessità di un controllo da parte di un essere umano, riconoscendo percettivamente un obiettivo di guerra e attaccandolo. Un errore in questo tipo di operazione, se commesso da un soggetto ritenuto moralmente o giuridicamente responsabile sarebbe un crimine di guerra, ma se fosse commesso da una macchina solleverebbe un problema di vuoto di responsabilità.
Credo che mediamente la comunità scientifica sia sensibile a questi temi, come dimostrano le campagne contro i killer robot e le armi autonome, che vengono ampiamente promosse e sostenute da gruppi di scienziati e tecnologi.

Infine, non dobbiamo dimenticare la responsabilità della società civile. Una cittadinanza consapevole oggi richiede una certa comprensione di queste tematiche e non un atteggiamento passivo nei confronti delle nuove tecnologie”.

I risultati del sondaggio di Nature evidenziano che l'attenzione degli della comunità sul tema è alta, ma molti tra gli intervistati ritengono che manchino direttive chiare e stringenti da parte dei paesi e dai comitati indipendenti di revisione etica su quali tipi di studi siano accettabili e sul modo più corretto in cui si dovrebbe svolgere la ricerca in questo campo.
Ad esempio, nell'articolo su Nature viene fatto riferimento al caso di Facebook, che ha dovuto pagare 650 milioni di dollari per risolvere una causa legale collettiva in Illinois su una serie di dati biometrici raccolti dagli utenti senza il loro consenso. Ulteriori dilemmi etici sono legati al tema dell'uso di immagini che vengono inizialmente ottenute con il consenso informato per una specifica ricerca, ma che poi vengono inserite anche in altri database, e vengono usate per altri studi. Si tratta di questioni che andrebbero affrontate con una legislazione precisa? Oppure ci troviamo a volte in una sorta di zona grigia, in cui è effettivamente difficile orientarsi?

“Siamo sicuramente in una zona grigia”, risponde il professor Tamburrini. “Il Regolamento generale sulla protezione dei dati (GDPR) dell'Unione europea offre delle linee guida per risolvere questioni come questa, ma ci sono degli atteggiamenti delle grandi società che raccolgono questi dati che sono ambigui. A seguito della raccolta e della distribuzione di immagini senza permesso, Facebook ha dato la possibilità agli iscritti di negare il consenso a distribuire le proprie foto, ma questo ovviamente richiede un comportamento attivo da parte degli utenti, che si sa che è difficile che venga adottato. Si tratta di una politica che invita a concedere i propri dati in modo tacito, perché spulciare tra le impostazioni per negare il consenso viene considerato troppo oneroso.
Ci troviamo di fronte a una asimmetria di potere che andrebbe corretta. Se i nostri dati, tra cui quelli facciali, sono una forma di guadagno, allora noi siamo dei fornitori di materie prime, il cui valore però non viene riconosciuto economicamente né protetto adeguatamente”.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012