SOCIETÀ

Nell’era dei deepfake cambia il rapporto con la realtà

Per diverso tempo si è pensato che una foto o un video potessero essere la prova che un evento si fosse verificato. Certo, immagini e video contraffatti sono esistiti in tempi non sospetti, ci è cascato perfino Conan Doyle. La differenza è che fino a poco tempo fa realizzare questi contenuti non era semplice, e non a caso se a una persona venivano mostrati foto o video di un partner infedele, questa tendeva a crederci, per la gioia delle agenzie investigative. Ora non è più così, e il problema non riguarda solo gli investigatori privati, ma tutti coloro che sono interessati a ricevere informazioni corrette, in qualsiasi settore. Preoccupa infatti il proliferare dei deepfake, cioè contenuti come foto, video ma anche registrazioni vocali creati dall’intelligenza artificiale generativa partendo da immagini e voci di persone realmente esistenti.

Facciamo qualche esempio di possibile deepfake: è piuttosto facile creare dal nulla il video di un politico che fa il saluto nazista, e questo può arrivare a cambiare il risultato di elezioni democratiche (viceversa, un politico immortalato davvero in questa posa può discolparsi sostenendo che l’immagine o il video è un deepfake). Può anche succedere che vengano diffusi video con contenuti espliciti non solo senza il consenso dei protagonisti, ma anche senza che si siano mai sognati di girarli, perché è possibile “incollare” in modo credibile le loro teste sui corpi di attori di film pornografici. Si possono anche mettere in atto truffe ben strutturate, con personaggi famosi che consigliano, per esempio, prodotti finanziari o addirittura integratori e sostanze illegali, ma non basta: cosa succederebbe se un genitore ricevesse un messaggio come: “mamma/papà, mi hanno rubato la borsa e il cellulare, ti sto scrivendo dal numero di una persona che mi aiuta: non so come tornare a casa, dovresti mandarle dei soldi per comprarmi il biglietto”. E se, invece di un messaggio che magari può far drizzare le antenne arrivasse una chiamata con la voce del figlio in lacrime?

Da questi esempi si può comprendere come i deepfake abbiano un grande potenziale distruttivo, anche perché grazie ai social e ai sistemi di messaggistica immediata possono essere creati e diffusi molto velocemente, cosa che può mettere in crisi i debunker, cioè i cosiddetti cacciatori di bufale, che non riescono a stare dietro a tutti questi contenuti. Ma esattamente quali sono le implicazioni di questa innovazione? Sono soltanto negative? E, soprattutto, ci sono dei mezzi per difendersi? Lo abbiamo chiesto a Paolo Attivissimo, scrittore e giornalista informatico esperto di debunking che questo weekend sarà a Padova per due incontri del Cicap Fest 2023.

Servizio e montaggio di Anna Cortelazzo

“Il rischio principale – spiega Attivissimo – è che non si possa più credere a nulla di quello che si vede e si sente. Oggi esistono dei software che consentono di falsificare immagini di persone conosciute o addirittura di creare voci artificiali che somigliano moltissimo a quelle delle persone che conosciamo, quindi dobbiamo in un certo senso rieducarci e abituarci a diffidare un po' di tutto se non abbiamo una traccia certa dell'origine di un video o di una registrazione audio. Dobbiamo essere estremamente cauti e dubbiosi, soprattutto se non c'è modo di avere una conferma dell’autenticità del contenuto”.

Questa questione del deepfake sta minando alla base il nostro senso della realtà e questa credo che sia una sfida importantissima Paolo Attivissimo

Per ora ci sono ancora software in grado di smascherare i deepfake, ma è un po’ come nel doping, in cui c’è una battaglia tra chi crea nuove sostanze illegali e chi elabora nuovi modi per rilevarle. Inizialmente per esempio l’intelligenza artificiale aveva qualche problema a riprodurre mani credibili (venivano fuori arti con qualche dito in più), ma poi sono stati creati dei software per ovviare a questo malfunzionamento.

Del resto come sempre accade di fronte a una novità tecnologica, le implicazioni non sono mai solo positive o solo negative. Come fa notare Attivissimo, questa tecnologia permette di restituire una voce realistica alle persone che ne sono state private per una malattia (nulla a che vedere con la voce robotica di Stephen Hawking che tutti ricordiamo) ma anche di realizzare a basso costo dei contenuti che normalmente non sarebbero alla portata di tutti: “Nel campo scientifico, per esempio, si può visualizzare un fenomeno semplicemente dicendo a un software di creare una rappresentazione tridimensionale di una raccolta di dati, senza coinvolgere un grafico che avrebbe dei tempi lunghi e dei costi molto elevati. Quindi da questo punto di vista ci saranno più possibilità per la presentazione la comunicazione della scienza”.
Il problema è che, anche in campo scientifico, non siamo più in grado di distinguere un contenuto reale da uno creato artificialmente, e se ne potrebbero approfittare quei ricercatori disonesti che hanno sempre falsificato i dati, con la differenza che ora diventa ancora più difficile smascherarli, perché anche gli osservatori più addestrati non riescono a stare dietro a una tecnologia che si sviluppa con una tale velocità.

Ho fatto clonare la mia voce e io stesso faccio fatica a distinguere la mia voce originale da quella che ho clonato Paolo Attivissimo

Nel settore tecnologico e giornalistico si sta discutendo molto sulle possibilità tecniche che ci sono per segnalare l’autenticità o meno del contenuto: da una parte esistono programmi in grado di creare una filigrana per i contenuti autentici, una sorta di firma digitale che dia una garanzia in questo senso, ma nulla esclude che poco tempo dopo possa nascere una tecnologia in grado di aggirare l’ostacolo. A quel punto come sarà possibile distinguere la verità dalla contraffazione? “Sarà impossibile dal punto di vista osservativo – dice Attivissimo. – Quello che secondo me è importante è non cadere nella trappola di pensare che ci siano degli ingredienti che permettono di distinguere un’immagine sintetica da una reale, perché molto spesso quegli ingredienti non ci sono e il rischio è di avere, come dire, dei falsi negativi. Quello che invece conviene fare è lasciar perdere tutta la parte di verifica oggettiva dei contenuti e dedicarsi alla verifica del contesto, chiedendosi chi ha mandato quel video, qual è il contesto nel quale è stata ripresa quella situazione, se è plausibile quello che sto vedendo. Non bisogna impigrirsi installando una app che individui i contenuti falsi, ma è questione di esercitare il proprio muscolo mentale. Il mio consiglio pratico è di diffidare di tutto, chiedere la fonte a chi ci ha inviato quel contenuto e se non si riesce a trovarla chiedersi almeno se quello che vediamo è plausibile nel contesto. Se non lo è, devo alzare la mia soglia del dubbio e alla fine in questo modo si riesce a evitare la maggior parte delle trappole. Consiglio anche di tenere presente il lato emotivo: perché ci viene mandato un video? È perché qualcuno vuole evocare la nostra indignazione e quindi spingerci a condividerlo? Allora dovremmo resistere a questa tentazione se abbiamo il minimo dubbio”.

E fare sempre qualche domanda ad amici e parenti che ci chiamano disperati chiedendo di essere foraggiati, in modo da stabilire la loro identità prima di prendere una decisione (vanno benissimo “qual è stato l’ultimo film che abbiamo visto insieme?” “qual è il mio piatto preferito” e via dicendo).

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012