SCIENZA E RICERCA

L'algoritmo razzista: etica e privacy ai tempi di Internet

Il cittadino europeo è stato inondato da solenni mail sul Gdpr al punto che nei discorsi al bar la parola “dato personale” ricorreva più spesso di “spritz all’aperol”. Da una parte può essere un bene, perché questa “rivoluzione” ha aumentato la consapevolezza dell'importanza del dato personale che sta diventando una vera e propria merce. Di contro, però, il Gdpr rischia di trasformarsi in una sorta di arma di distrazione di massa: l’attenzione spasmodica ai dati personali rischia di far passare in secondo piano il fatto che stiamo regalando alle multinazionali qualcosa di molto più importante: i nostri gusti e le nostre emozioni. In cambio si riceve un servizio sempre più calibrato sulle nostre esigenze, ma sarebbe il caso di chiedersi se vogliamo che una macchina sappia tutto di noi solo per “regalarci” una pubblicità migliore (e farci comprare di più).

Mariachiara Tallacchini, docente di filosofia del diritto all'università Cattolica di Piacenza e di Scienza, diritto e democrazia alla Sissa di Trieste, rileva che tutelare la privacy dei cittadini tramite il Gdpr è senz’altro un tentativo ammirevole, ma rischia di allontanarci da altri problemi etici che la tecnologia ci mette di fronte. Ma facciamo un passo indietro: “Questo è il primo atto legislativo dell'Unione Europea che ha un impatto anche su un territorio su cui l’Europa non potrebbe intervenire dal punto di vista giuridico. Alcune multinazionali extraeuropee hanno pensato di adeguare tutto il loro apparato al Gdpr, e questo prevede un investimento molto alto: la Commissione europea ha trasformato un problema in un prodotto, creando un mercato enorme e forse anche un nuovo modello di business, perché offrire privacy agli utenti diventa un meccanismo per migliorare la propria reputation”.

A questo punto però ci troviamo di fronte a un altro problema: cosa si intende per privacy? Il diritto sancito nell’articolo 8 della Convenzione sui diritti umani del 1950 è quello che prevede il rispetto della vita privata e familiare, della casa e della corrispondenza privata degli individui. Con la Carta dei diritti fondamentali dell'Unione Europea (la cosiddetta Carta di Nizza), il diritto alla privacy viene diviso in due categorie distinte: da una parte si tutelano i dati personali, mentre dall'altra ci si preoccupa del rispetto della vita privata e familiare. Queste due istanze convivono tutt’ora, e possiamo facilmente renderci conto che il Gdpr si concentra sulla seconda. È un Regolamento e quindi, diversamente dalla direttiva, è immediatamente applicabile e immediatamente vincolante in tutti gli stati membri. Lo scopo è cercare di limitare la discrezionalità dei singoli paesi rispetto alla direttiva, in modo che quello che è illegale in un territorio non sia contemporaneamente legale solo due metri più in là, oltre il confine. I dati personali, nel complesso, sembrerebbero quindi abbastanza al sicuro.

La Commissione europea ha trasformato un problema in un prodotto, creando un mercato enorme e forse anche un nuovo modello di business Mariachiara Tallacchini

Ma che ne è della prima istanza, quella che vorrebbe tutelare la sfera personale e intima dell'individuo? In questo senso in rete troviamo cose ben più pericolose della raccolta di qualche indirizzo e-mail. Tallacchini cita il caso Facebook-Cornell del 2014: tutto è partito dall'esperimento di un gruppo di ricercatori del Data science team di Facebook e dei dipartimenti di informazione e comunicazione della Cornell University. Per una settimana, il news feed di 689.000 utenti è stato manipolato, in modo che alcuni visualizzassero dei contenuti emotivi positivi e altri negativi. Lo scopo era stabilire se potesse esserci un contagio emotivo senza contatto diretto, ed effettivamente è stato così: il gruppo esposto ai contenuti positivi ne produceva a sua volta di più e viceversa. Quando sono usciti i risultati dello studio, però, non sono mancate le polemiche, perché le "cavie" dell'esperimento ne erano totalmente all'oscuro. La risposta è giunta prontamente: accettando le condizioni di uso di Facebook, gli utenti avevano esplicitato il loro consenso informato, e la privacy non era stata in alcun modo violata, visto che i risultati erano stati raccolti in forma anonima da un sistema informatico e non da esseri umani. Indubbiamente, però, si era di fronte a una consapevole invasione dell'ambito emozionale degli utenti (si rientrava quindi nella prima istanza) ed è sorta spontanea una domanda: posto che tutto ciò sia legale, e sembra esserlo, è anche etico? Ormai gli algoritmi hanno un impatto capillare sul nostro modo di percepire la realtà (si pensi alla filter bubble, che è quella prigione dorata social che ci porta a visualizzare contenuti già in linea con le nostre convinzioni, piuttosto che qualcosa che ci indisporrebbe, creando in noi l'errata convinzione che "il popolo" sia d'accordo con noi) e non è detto sia un bene.

Tallacchini ricorda anche che gli algoritmi non rendono necessariamente le decisioni più oggettive. Sappiamo molto poco di come funzionino e dei modelli matematici alla loro base, tanto che spesso nemmeno gli esperti riescono a fare reverse engineering sugli algoritmi (in altre parole, a partire dai risultati non si riesce a risalire al funzionamento). Eppure una certezza c'è: alcuni algoritmi hanno l'assicella del politicamente corretto decisamente troppo bassa. Esemplare in questo senso è il caso di Compas, un modello realizzato dalla società NorthPointe che calcola la probabilità di recidiva nelle persone arrestate, e che viene utilizzato da alcuni tribunali federali negli Stati Uniti per stabilire l'entità della pena o per decidere sulla libertà su cauzione. Come ha però rilevato ProPublica nel 2016, il sistema, basato su un questionario standard compilato da imputati e poliziotti, dava percentuali di falsi positivi fortemente caratterizzate per razza: in due anni, su un campione di 10.000 persone, i falsi positivi tra i bianchi erano il 23,5%, mentre tra gli imputati neri si arrivava al 44,0%.

Gli algoritmi si basano su modelli matematici che "imparano" dal passato e cercano di prevedere il futuro, ma sono ancora perfettibili, e rischiano di trasformarsi in una minaccia ai valori democratici (dice niente Minority report?). Mettere il destino delle persone (assunzioni, licenziamenti, libertà sulla parola e via dicendo) nelle mani di un algoritmo potrebbe diventare molto più rischioso di compilare il campo "indirizzo" su un form online.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012