SCIENZA E RICERCA

Quanto è davvero pericolosa la misinformazione sui social media?

È diventato ormai un luogo comune dire che i social media siano un ricettacolo di informazioni inaccurate (misinformazione) o false (disinformazione) e che siano una delle principali cause della deriva che sta prendendo la società odierna. Ma quanto sono supportate dalle evidenze queste affermazioni?

Un articolo pubblicato su Nature da un gruppo di ricercatori statunitensi, che studia il fenomeno con un approccio basato sui dati (data-driven), ha provato a fare il punto su cosa si può dire e cosa non si può dire sul conto dei tanto vituperati social media.

L’analisi si concentra sugli effetti negativi della misinformazione, come ad esempio esitazione vaccinale o aumento delle false credenze, e dei contenuti estremi, associati a crimini d’odio.

Le informazioni inaccurate tuttavia non sono l’unico problema che si associa all’uso dei social media. Esistono infatti anche gli effetti sulla salute mentale, specialmente degli adolescenti, l’aumento della polarizzazione delle opinioni per esposizione a contenuti divisivi e l’aumento della sfiducia nei media tradizionali per esposizione a contenuti sensazionalistici. Questi tre aspetti non vengono presi in considerazione dal lavoro.

Fatta questa doverosa premessa, gli autori del paper (intitolato “misinterpretare i danni della misinformazione online”) affermano che spesso nel dibattito pubblico, alimentato da intellettuali e giornalisti, vi siano tre principali esagerazioni imputate ai social.

La prima è che l’esposizione alla misinformazione sui social sia alta e in crescita. La seconda è che tale esposizione sia dovuta all’algoritmo che propone i contenuti e non agli utenti che attivamente vanno a cercarli. La terza è che vi sia un rapporto causale tra esposizione a contenuti estremi e comportamenti socialmente problematici.

Secondo i ricercatori, nessuna di queste affermazioni è supportata dalle evidenze che sono state finora accumulate dagli studi scientifici.

Sovrastimare l’esposizione a contenuti pericolosi

Per smentire la prima affermazione, i ricercatori portano l’esempio delle elezioni statunitensi del 2016, quando si temeva che la Russia usasse i social media per diffondere informazioni false e influenzare l’esito del voto. Il fenomeno è stato monitorato e misurato, trovando che solo una piccola parte della popolazione è stata esposta a contenuti problematici.

Uno studio ad esempio ha rivelato che su Twitter (ora X) l’esposizione a contenuti prodotti da account russi era concentrata sull’elettorato repubblicano e, per di più, su una piccola parte di questo: l’1% degli utenti è stato esposto al 70% dei contenuti problematici e il 10% al 98% di questi. Le stesse dinamiche e proporzioni sono state osservate su altre piattaforme, come YouTube.

Un’altra fonte di fraintendimento che viene evidenziata è il reale volume di contenuti che circola sui social media. Un recente studio ha mostrato che 31 video di deepfake su YouTube hanno più di 500.000 visualizzazioni. Sebbene possano sembrare numeri molto grandi, gli autori ricordano che i 20 video più visualizzati su Facebook a inizio 2023, negli Stati Uniti, avevano 776 milioni di visualizzazioni. Ciononostante, rappresentavano solo lo 0,04% delle visualizzazioni di tutti i contenuti sulla piattaforma.

Prima delle elezioni del 2016, Facebook stessa aveva riportato che i contenuti dei troll russi avevano raggiunto 126 milioni di cittadini statunitensi. Tuttavia, è stato stimato che si trattava dello 0,004% dei contenuti da loro visualizzati.

Messa in prospettiva, questa percentuale fa capire quale sia la reale proporzione di misinformazione che circola sui social e di quanto esagerata sia la percezione pubblica: nel 2018, un sondaggio riportava i cittadini statunitensi credevano che il 65% dei contenuti sui social media fosse misinformazione.

Questo dato in realtà è indice di un generale clima di sfiducia nei confronti delle istituzioni e dei media in generale: gli statunitensi ritenevano fosse distorta anche il 60% dell’informazione su giornali e televisioni.

Sebbene gli autori del paper su Nature riconoscano che la semplice presenza di misinformazione sui social, anche se ridotta, possa risultare problematica specialmente in determinati periodi (si pensi a contenuti no-vax nel mezzo di una campagna vaccinale), concludono con convinzione che la ricerca su un punto è chiara: l’esposizione alla misinformazione sui social è molto minore di quanto viene pubblicamente percepito ed è concentrata in piccoli gruppi di utenti.

Un punto su cui però non si soffermano a sufficienza, ma che emerge indirettamente dai dati che riportano, è che sebbene le informazioni imprecise siano una parte relativamente piccola, la dieta mediatica che viene offerta sui social è bulimica, ipercalorica: l’utente è bombardato da un volume enorme di contenuti di ogni tipo: accurati, inaccurati o semplicemente di intrattenimento. Gli effetti dell’esposizione a questo disordine informativo non sono adeguatamente presi in considerazione dall’articolo.

Esagerare gli effetti degli algoritmi

Spesso si ritiene che l’esposizione a contenuti problematici sia dovuta all’algoritmo, che cerca di far restare l’utente sulla piattaforma social il più a lungo possibile. Lo studio più completo che tenta di stabilire la fondatezza di quest’affermazione è stato fatto su Facebook e Instagram, testando due tipi di algoritmi: quello che propone contenuti in ordine cronologico inverso (dal più al meno recente) e quello che privilegia contenuti prodotti da profili seguiti dall’utente (rank).

I risultati hanno mostrato che il secondo tipo di algoritmo mostra più contenuti affini all’utente, con un effetto bolla leggermente maggiore, ma meno contenuti da fonti inaffidabili. Complessivamente tuttavia non sono stati osservati effetti significativi in termini di cambiamento nei livelli di polarizzazione e di attitudini politiche degli utenti nel periodo di tre mesi considerato.

Al contrario, invece, esistono evidenze che sembrano indicare che le persone che consumano grandi quantità di contenuti falsi, inaffidabili o potenzialmente dannosi, siano esse stesse ad andarli a cercare attivamente. Per esempio, coloro che su YouTube visualizzano contenuti da canali estremisti spesso hanno in precedenza già espresso posizioni sessiste e razziste.

Gli autori puntualizzano che esistono anche casi in cui è l’algoritmo dei social a proporre contenuti problematici e che spesso non è semplice distinguere il ruolo dell’algoritmo da quello dell’utente, ma ritengono che effetti su larga scala imputabili agli algoritmi non sono facilmente derivabili dalla letteratura scientifica.

Anche in questo caso, tuttavia, gli autori si concentrano sul ruolo degli algoritmi nella diffusione della misinformazione, ma non prendono in considerazione altre potenziali effetti, come le conseguenze di una continua ricerca dell’attenzione degli utenti, proponendo loro contenuti di ogni tipo (non necessariamente inaccurati), che favoriscano la loro permanenza sulla piattaforma.

Vivek Muthy, il surgeon general statunitense, che ha il ruolo di fornire al pubblico americano le informazioni scientifiche più affidabili in termini di salute, ha da poco proposto di creare un’etichetta per i social, non dissimile da quella applicata ai pacchetti di sigarette, per avvisare che nuocciono alla salute mentale, specialmente quella degli adolescenti che ci trascorrono più di tre ore al giorno. Secondo un recente sondaggio, quelli statunitensi spendono in media tra le 4 e le 5 ore al giorno su social come YouTube, TikTok e Instagram.

Social e comportamenti socialmente problematici: causalità non è correlazione

Un’altra inclinazione comune nel dibattito pubblico, secondo gli autori, è attribuire tendenze di lungo corso, come la polarizzazione delle opinioni pubbliche o il populismo, ai social media. Ad esempio, spesso viene detto che il movimento dei gilet gialli in Francia non sarebbe stato possibile senza Facebook.

Sebbene sia vero che i gilet gialli abbiano organizzato i loro ritrovi tramite le piattaforme social, così come è vero che contenuti no-vax vengono diffusi sui social, secondo gli autori non è lecito affermare che i social siano la causa di questi fenomeni, poiché la Francia ha una lunga storia di proteste di strada e il movimento anti-vaccinista esiste da prima dei social.

Il tema della responsabilità delle piattaforme è estremamente complesso e richiede valutazioni anche di natura legale, che gli autori del paper però non prendono in considerazione.

Monitorare i Paesi non occidentali

Tutte le considerazioni fatte nel paper si basano principalmente su dati che monitorano quasi esclusivamente il Nord del mondo (Nord America, Europa occidentale e Australia), mentre la presenza dei social è un fenomeno ormai globale. Non è detto che gli effetti riscontrati, o non riscontrati, in un contesto benestante e democratico siano gli stessi che si verificano in altri Paesi del mondo , riconoscono gli autori.

“Contenuti inaccurati possono raggiungere più persone in Paesi in cui mancano sistemi mediatici affidabili, che pongono limiti alla libertà di stampa o hanno bassi livelli di fiducia nei media. Le decisioni su come moderare i social media inoltre possono essere influenzate dai regimi, (…) mentre la disinformazione di governo è cresciuta in modi diversi in Paesi autocratici rispetto a quelli democratici”.

Le piattaforme social inoltre dedicano meno risorse finanziarie alla moderazione dei contenuti nei Paesi del Sud del mondo. Nel 2020, è stato speso fuori dagli Stati Uniti poco più di un decimo degli oltre 3 milioni di dollari che Facebook ha dedicato alla moderazione dei contenuti.

Per queste ragioni “ci aspettiamo livelli più alti di contenuti falsi o estremi nelle diete informative delle persone che vivono fuori dagli Stati Uniti o dall’Europa occidentale” scrivono gli autori.

Proprio per comprendere la reale portata della misinformazione sui social e dei suoi effetti, è fondamentale che le piattaforme siano più disponibili a concedere l’accesso ai propri dati, affinché la comunità scientifica dei ricercatori al di fuori delle aziende Big Tech concorra, nel rispetto della privacy degli utenti, a monitorare un fenomeno complesso che, nonostante tutto, resta centrale per il corretto funzionamento di una società.

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012