SCIENZA E RICERCA
La prima pandemia dell'era informatica e la tutela della privacy
Per facilitare il controllo della diffusione del Coronavirus, il 16 aprile Apple e Google hanno siglato un accordo per mettere a disposizione degli sviluppatori di app tutti gli strumenti necessari ad accedere e utilizzare i dati raccolti dai telefonini. Hanno cioè aperto l’accesso ad informazioni sensibili a una miriade di piccole e medie società che competeranno sul nuovo mercato creato dalla prima pandemia dell’era informatica. A breve, i due giganti dei Big Data renderanno anche disponibile un software che dovrebbe permettere di tenere sotto controllo tutte le persone che si avvicinano e segnalare se uno di loro risulta positivo al coronavirus. Detta così, potrebbe anche sembrare una cosa buona, ma non lo è e gli autori dell’accordo sembrano esserne perfettamente consapevoli dato che nel corso dell’annuncio hanno posto grande enfasi nel chiarire che tutto sarà fatto nel pieno rispetto della privacy e delle libertà individuali. Hanno tenuto infatti a precisare che sarà usata la tecnologia bluetooth e non la geo-localizzazione, che sarà richiesto il consenso alla raccolta dei dati e che i casi positivi al corona-virus dovranno auto-dichiararsi tali. Quasi come per rassicurarci, hanno anche detto che i dati non saranno messi a disposizione delle istituzioni. Ed è forse questo l’aspetto più inquietante. In passato, i dati sensibili in cui era racchiusa la nostra vita, i dati anagrafici, fiscali e economici, erano raccolti e gestiti dagli stati che si assumevano la responsabilità della loro correttezza e, con apposite leggi, ne tutelavano la segretezza. Con l’avvento di internet, dei telefonini e della filosofia “millennial” dell’essere sempre connessi, la qualità e la quantità dei dati raccolti è esplosa: i siti che visitiamo su internet, i libri che leggiamo, le transazioni economiche, i nostri viaggi, tutto ciò che scriviamo sui social, è monitorato e immagazzinato per sempre. Tramite i GPS installati sui telefonini e le celle telefoniche tutti nostri spostamenti sono tracciati e registrati. Il sempre crescente uso di dispositivi “intelligenti” nelle abitazioni, la cosiddetta domotica, fornisce ulteriori dati sulle nostre abitudini alimentari, sulla temperatura dell’acqua quando facciamo la doccia, su a che ora accendiamo il televisore, e così via. In pratica, ognuno di noi lascia una “scia digitale” che lo definisce in modo univoco. Per non parlare, poi, di quando la prossima generazione di auto a guida automatica trasmetterà in modo costante gli spostamenti e, a fini assicurativi, anche le immagini di quello che ci circonda. Tutto ciò, se ben usato, può portare a enormi vantaggi, a una semplificazione e una migliore qualità della vita, ma se male usato può avere effetti devastanti. E questo, a mio parere è uno dei problemi più gravi con cui l’umanità deve fare i conti e ancor più dovrà farlo negli anni a venire.
Oggi, infatti, i dati non sono più affidati agli stati ma a un pugno di “Big Data Provider” quali Google, Apple, Amazon, Ali-Baba e pochi altri. Compagnie che proprio sfruttando queste informazioni si sono affermate come le più grandi, potenti e ricche multinazionali del pianeta. E, si sa, lo scopo delle multinazionali non è mai stato quello di promuovere il benessere della società, ma il profitto. La nostra scia viene infatti usata per infiniti scopi: per promuovere prodotti, per influenzare il nostro modo di pensare, per suggerirci una fonte di informazione piuttosto che un'altra, in casi estremi anche per condizionare il nostro voto, come dimostra lo scandalo di Cambridge Analitica. I dati in cui è raccontata la nostra vita vengono scambiati e venduti continuamente e al momento non c’è modo in cui noi li si possa controllare.
Va anche sottolineato che i dati raccolti sono usati per una miriade di applicazioni che sono genericamente etichettate come “supporto all’attività decisionale”. Applicazioni che vanno dalla valutazione dell’affidabilità economica di una persona che richiede un prestito alla pianificazione urbana, dallo scambio di azioni sui mercati finanziari alla valutazione delle capacità di una persona che deve o non deve essere assunta. Tutto ciò è fatto tramite algoritmi di apprendimento automatico (per non usare l’odioso ed abusato termine “intelligenza artificiale” oggi tanto di moda) che sono messi a punto da aziende più o meno grandi e più o meno esperte. Nella stragrande maggioranza dei casi, questi algoritmi sono costruiti in modo da rispondere ad una ed una sola domanda quale, ad esempio: “posso concedere questo mutuo a questa persona?”. In questo caso, al fine di minimizzare il rischio per la banca e massimizzarne il profitto, il programma userà il profilo economico della persona e non terrà conto, ad esempio, del fatto che quel mutuo avrebbe dovuto essere usato per avviare una florida attività economica che avrebbe potuto rilanciare un intero quartiere. Inoltre, nel caso di una decisione sbagliata che arreca danno a una o più persone, di chi sarà la responsabiltà? Di chi ha fornito i dati, di chi ha realizzato l’applicazione oppure di chi l’ha usata per prendere la decisione?
Tutto questo già basterebbe a generare un senso di orwelliana angoscia, ma non c’è nulla da fare.
La nostra economia e il nostro stile di vita sono ormai inestricabilmente connessi con questi “big data” e indietro non si può tornare. Se internet smettesse improvvisamente di funzionare, il mondo si fermerebbe e, probabilmente, ricadremmo nei secoli più bui del medioevo.
Il nostro futuro, quindi, dipende dalla capacità che avranno gli stati di controllare il flusso dei dati e di emanare leggi adeguate che impediscano gli abusi e il loro uso non autorizzato. Ma non è facile: i tempi dello sviluppo e dell’evoluzione tecnologica sono infatti molto più rapidi di quelli del processo politico e legislativo, e una soluzione trovata oggi è destinata a divenire rapidamente obsoleta. Un po’ per ignoranza, ed un po' perché presi da problemi all’apparenza più pressanti, gli Stati non si sono dotati di sufficienti anticorpi ed hanno lasciato pressoché completa libertà d’azione a chi i dati li possiede e li controlla. Ma non si può continuare a sbagliare, soprattutto non si può farlo per la fretta o per l’urgenza dettata da una contingenza quale ad esempio, una pandemia. Questa pandemia ha infatti offerto alle nuove tecnologie la possibilità (non oso dire il pretesto) per far allentare le già inefficaci maglie legali che le limitavano e che facevano dei dati medici e farmaceutici quelli più protetti e meglio tutelati dell’infosfera. La paura del contagio, non solo ha permesso di giustificare agli occhi dell’uomo comune un’ulteriore violazione delle sue libertà individuali, ma addirittura viene usata per farla apparire necessaria, quasi indispensabile. Fatto sta che i dati raccolti entreranno a far parte della nostra “scia digitale” e potranno essere usati da chiunque riuscirà ad accedervi. E di chi sarà la responsabilità di un loro cattivo uso? Se, ad esempio, una persona dovesse essere marginalizzata perché ha avuto o ha, una semplice influenza scambiata per un coronavirus, e se la sua attività o la sua stessa vita dovessero essere danneggiate da questo errore, di chi sarebbe la colpa? Di chi ha raccolto i dati ed ha permesso che venissero usati, di chi ha realizzato il programma oppure dello stato che non ha legiferato al riguardo?
Il problema è complesso e non può essere risolto dai soli scienziati che sviluppano gli algoritmi, né tantomeno da aziende più o meno grandi che spesso non hanno neppure le competenze o le motivazioni giuste per farlo. La sua soluzione richiederebbe una riflessione collettiva a cui dovrebbero partecipare giuristi, politici, filosofi, sociologi e esperti ma si sa, questi sono processi lenti e quasi sempre destinati al fallimento. Occorrerebbe cioè una discussione ampia ed informata su questi temi. Una discussione che non abbia per soli fini l’innovazione a tutti i costi e il perseguimento del profitto, ma che si focalizzi sul benessere della società nel suo complesso e sul rispetto delle libertà individuali.