SCIENZA E RICERCA
Echo chambers. Gli algoritmi dei social influenzano la nostra esperienza online
Le echo chambers (o “camere d'eco”) sono degli ambienti virtuali che si creano all'interno di una piattaforma di condivisione online, in cui un utente si trova a visualizzare prevalentemente contenuti coerenti con le sue convinzioni e ideologie, e ad interagire maggiormente con altri utenti che condividono le sue stesse opinioni. Un recente studio, guidato da Walter Quattrociocchi, professore al dipartimento di informatica dell'università La Sapienza di Roma, ha indagato l'effetto di queste echo chamber all'interno di quattro social: Facebook, Twitter, Reddit e Gab, una piattaforma abbastanza simile a Twitter e utilizzata prevalentemente da estremisti di destra.
Abbiamo domandato al professor Quattociocchi di illustrarci i risultati principali di questo studio che ha messo in evidenza, in particolare, il ruolo degli algoritmi di feed nelle dinamiche di formazione delle echo chambers.
L'intervista completa al professor Quattrociocchi. Montaggio di Elisa Speronello
“All'interno della comunità scientifica assistiamo a un accanito dibattito riguardo all'esistenza delle echo chambers e alla loro natura. Si tratta di un tema appartenente a un settore disciplinare non ben identificabile, a cavallo tra sociologia, economia comportamentale e fisica”, specifica il professor Quattrociocchi. “In precedenza avevamo condotto degli studi che avevano permesso di rilevare un'evidente tendenza di massa, da parte degli utenti, a cercare i contenuti che aderivano a una determinata visione del mondo e a evitare quelli che, invece, la contrastavano.
Ci siamo accorti, però, che mancava una definizione operativa di echo chamber. Abbiamo perciò stabilito una definizione operativa molto semplice: abbiamo deciso di indagare come l'attività di un utente si correla con quella dei suoi contatti. Abbiamo rilevato, ad esempio, che la cerchia sociale di un utente che interagisce molto con pagine di sinistra è composta da altre persone che a loro volta sono attive su queste pagine.
Abbiamo deciso perciò di condurre uno studio comparativo prendendo in esame quattro piattaforme diverse che si distinguono per peculiarità abbastanza sostanziali. Le prime due sono quelle mainstream: Facebook, che è improntato sulla libertà di condivisione, quasi come un blog dove ognuno ha la sua cerchia di amici e posta contenuti, e Twitter, dove invece si è costretti ad accorciare i propri messaggi. Oltre a queste abbiamo scelto Gab, che è il social dell'estrema destra americana, e Reddit.
Questi ultimi due social sono diversi rispetto a Facebook e Twitter perché non implementano algoritmi di feed. L'algoritmo di feed è quello che seleziona ciò che effettivamente visualizziamo rispetto all'intera offerta dei contenuti della nostra rete sociale. Facebook, in particolare, funziona secondo un algoritmo chiamato EdgeRank che tiene conto delle similarità delle interazioni che un utente ha con i suoi amici e stabilisce delle “corsie preferenziali” per i contenuti postati da quelli con i quali interagisce di più.
Per capire come cambia la polarizzazione delle opinioni sui diversi social abbiamo scelto argomenti controversi, come il controllo delle armi, l'aborto, e i vaccini. È emerso che su Fabeook e Twitter la segregazione all'interno di echo chambers è dominante. Se invece si esamina il consumo dello stesso contenuto sulle altre due piattaforme, ovvero su Gab e Reddit - su quest'ultima, in particolare, l'algoritmo è modificabile dall'utente, che può quindi decidere cosa vedere e cosa no – risulta che la polarizzazione non è più così alta. Il risultato che emerge da questo studio, quindi, è che l'algoritmo di feed ha un ruolo abbastanza importante nelle dinamiche di polarizzazione. Su Reddit e Gab le echo chambers sono meno presenti, anche se notiamo sempre una tendenza degli utenti a riunirsi in dei gruppi molto segregati”.
“Il nostro scopo, comunque, non è mai stato quello di dimostrare che gli utenti sono esposti solo alle fonti di informazione che aderiscono alla loro visione del mondo. Sappiamo che visualizzano anche altri contenuti”, sottolinea il professor Quattrociocchi. “Il nostro studio evidenzia, piuttosto, una differenza di reazione degli utenti rispetto ai contenuti che visualizzano. Chi è generalmente esposto a post di sinistra, ad esempio, tende a manifestare il suo dissenso quando gli capita di visualizzare un post di destra.
In questo contesto, Gab per certi versi è una grande echo chamber, perché colleziona tutti gli utenti che sono stati bannati dalle piattaforme ufficiali come Facebook e Twitter, proponendosi come il paradiso del free speech. Non c'è moderazione su questo social, e quindi vi si concentrano anche la maggior parte delle teorie del complotto. Per questo, al suo interno esiste una coerenza narrativa molto forte, nonostante l'effetto della polarizzazione sia meno presente rispetto a Facebook e Twitter”.
Lo studio condotto dal professor Quattrociocchi, inoltre, dimostra anche l'importanza di indagare il funzionamento delle echo chambers sui social per comprendere i meccanismi tramite i quali si forma l'opinione pubblica e il modo in cui circolano le credenze, le notizie e, purtroppo, anche la disinformazione.
“Nel 2018 è uscito su Science un articolo che sosteneva che le fake news si diffondessero più velocemente delle informazioni vere”; ricorda il professor Quattrociocchi. “Si trattava però di un'interpretazione che si basava su un unico set di dati sperimentali, raccolti cioè da un'unica piattaforma, senza tenere conto dell'engagement degli utenti e della polarizzazione. L'articolo sembrava piuttosto dimostrare che il vero elemento capace di aumentare la diffusione di un'informazione fosse la novità, più che la sua veridicità o falsità.
Dopo quello studio, il dibattito pubblico si è concentrato molto su questo argomento. Nel nostro lavoro abbiamo cercato perciò di riequilibrare il discorso e porre l'attenzione sul fatto che la diffusione dell'informazione è molto articolata e complessa, ed è soggetta sia alle dinamiche di comportamento degli individui, sia ai meccanismi di funzionamento delle piattaforme. Abbiamo rilevato perciò la creazione di cluster sociali all'interno dei quali assistiamo a un esercizio collettivo per filtrare le informazioni che aderiscono al credo condiviso di quel cluster e per interpretare le informazioni esterne mantenendo la coerenza narrativa. Questo processo influenza anche la diffusione delle informazioni, e conoscerne il funzionamento aiuta a definire dei modelli predittivi sulla loro circolazione. Speriamo di riuscire ad ottenere, entro qualche anno, dei modelli predittivi della diffusione delle informazioni al pari di quelli che prevedono l'andamento delle pandemie”.