SOCIETÀ

I social, tra algoritmi e moderatori obsoleti

Ormai quasi tutti sappiamo che quello che troviamo sui feed dei social network a cui siamo iscritti è solo una minima parte di quello che potremmo vedere. Sappiamo che c'è un algoritmo che sceglie cosa mostrarci, a seconda di moltissime variabili tra cui l'interesse che un dato post ha riscosso in generale, e l'attenzione che abbiamo già riservato ad altri contenuti simili. Lo stesso accade con gli annunci, che si possono basare sul retargeting o sulla curiosità manifestata anche in modo molto blando, per esempio soffermandosi sulla foto di un oggetto improbabile in vendita su Wish. Quello che non sappiamo, o che non tutti sanno, è quante persone, a noi del tutto estranee, possano dare un'occhiata a ciò che scriviamo, anche nelle nostre chat private. La maggior parte degli utenti dei social, infatti, crede che sia l'algoritmo a regolare l'intero processo di selezione dei contenuti dall'inizio alla fine, e che gli esseri umani intervengano solo per controllare che l'algoritmo non abbia eliminato contenuti leciti, e solo quando l'autore si lamenta per la loro cancellazione.

Non è un errore fatto per ingenuità, e anzi per i non addetti ai lavori è un pensiero del tutto normale: sono i social stessi che tendono a nascondere l'esistenza dei moderatori, perché sono la dimostrazione che l'algoritmo non è potente come i vertici aziendali vogliono far credere a utenti e azionisti. Per fortuna di recente la stampa ha cominciato a interessarsi alle condizioni di lavoro di queste persone e alla società che contribuiscono a creare. Tra gli altri, ha portato alla luce il problema anche Jacopo Franchi, social media manager e autore del libro Gli obsoleti edito da Agenzia X, dove si spiega cosa implichi essere un moderatore di una piattaforma social e quali conseguenze può avere sulla propria vita e su quella dei "moderati".

Servizio di Anna Cortelazzo e montaggio di Elisa Speronello

Si potrebbe pensare che stare seduti alla scrivania con l'unico compito di prendere decisioni sui contenuti pubblicati da altre persone, per lo più perfette sconosciute, di cui nessuno ti chiederà mai conto, sia un lavoro migliore di altri. In realtà quello del moderatore è un lavoro estremamente usurante, e può portare anche a sviluppare forme di disturbo da stress post-traumatico, non ti dà alcuna possibilità di carriera all'interno delle aziende per cui si lavora e spesso nemmeno altrove (per contratto non puoi dire che sei stato un moderatore, perché si cerca ancora di far credere che i contenuti non permessi siano cancellati direttamente dall'algoritmo). Inoltre questo tipo di lavoro spesso ti isola da parenti e amici, che non riescono a comprendere perché la visione di un semplice coltello ti metta a disagio (di solito capita quando qualcuno è costretto per lavoro ad assistere, tra le altre, a scene di accoltellamenti).

Quelle stesse aziende tech che celebrano i propri software si trovano infatti ad affidarsi sempre di più a degli invisibili lavoratori di serie B Jacopo Franchi

I moderatori agiscono sulla base delle segnalazioni degli altri utenti della piattaforma. Possono trovarsi ad assistere a esplosioni, decapitazioni, attentati terroristici, video pedopornografici o anche, semplicemente, possono dover approvare (e quindi lasciare sulla piattaforma) un post correttissimo segnalato da un concorrente di un'azienda che lo ha postato, che senza senso etico ha imparato ad approfittarsi del meccanismo rendendo il lavoro dei moderatori ancora più logorante. L'algoritmo riesce a bloccare a priori una piccola parte dei contenuti (soprattutto quelli pedopornografici), ma la maggior parte del lavoro è affidata proprio ai moderatori. Il compito è meno meccanico di quanto si pensi, perché le regole cambiano in continuazione, a seconda del clima politico e sociale: per esempio i video di denuncia girati durante la Primavera Araba in un primo tempo dovevano essere cancellati da Facebook, ma in seguito alle istanze dell'opinione pubblica il social ha cambiato la sua policy, e i moderatori si sono trovati costretti a disimparare quello che gli era stato insegnato durante la formazione, per non parlare di quanto è successo con Trump, inopinatamente bannato dopo che per anni aveva potuto portare alla ribalta contenuti intrisi di rabbia e disinformazione. Cose come queste accadono ogni giorno, e i moderatori che non riescono a tenere il passo sbagliando a catalogare i post vengono licenziati (il tempo che possono dedicare al singolo contenuto si aggira attorno ai trenta secondi, sia che si tratti di un video pedopornografico facilmente identificabile, sia nel caso di contenuti legati all'attualità che contengono elementi satirici di più difficile interpretazione, specie per chi non parla la stessa lingua dell'autore e non è inserito nello stesso contesto socio-culturale). Certo, c'è una soglia di tolleranza, che orientativamente si aggira intorno al 5%. Se un moderatore sta sotto quella soglia non gli accadrà assolutamente nulla, anche se dovesse scegliere di eliminare post leciti per la policy con cui però non si trova d'accordo.

Il lavoro sarebbe stressante anche se a un moderatore capitassero solo contenuti "tranquilli": persino le pause per andare al gabinetto vengono cronometrate, e vanno giustificate se si dovesse superare il limite (magari per un attacco di nausea dovuto alla visione di un video su un massacro di bambini, che comunque non costituisce una giustificazione all'assenza prolungata). Molti moderatori si arrendono nei primi giorni di lavoro, altri nei mesi successivi. Alcuni trovano degli inaspettati benefit e durano di più: per esempio si potrebbe apprezzare il totale anonimato in cui si lavora, il rapporto umano quasi nullo con capi pretenziosi (l'algoritmo tratta tutti allo stesso modo e non ti fa firmare lettere di dimissioni in bianco: finché riesci a fare il tuo lavoro velocemente va tutto bene, anche se ti metti a urlare davanti a tutti per l'ennesima segnalazione in cattiva fede), o il potere che possono avere sulla vita altrui.

Il lavoro dei moderatori, infatti, ha un impatto altissimo sulla percezione del mondo degli utenti: se da una parte è auspicabile non essere bombardati da contenuti pedopornografici quando si accede a un social durante la pausa caffè, è lecito chiedersi quanto queste piattaforme vizino la nostra percezione della realtà: la foto di una persona picchiata fino alla morte da un poliziotto, per esempio, è un contenuto non permesso dalla policy della maggior parte delle piattaforme, ma la sua cancellazione costituisce anche un limite alle possibilità di denuncia degli attivisti. Anche per questo l'Oversight board di Facebook ha chiesto alla piattaforma maggiore trasparenza sulle modalità di moderazione, ma il social teme che procedendo in questa direzione si diano ai malintenzionati troppi elementi per aggirare una (legittima?) censura.

Forse bisognerebbe cominciare a chiedersi fin da subito in quale mondo vogliamo vivere, se vogliamo che i contenuti a cui siamo esposti siano filtrati dall'alto (e con quali limiti) o se vogliamo vedere messa a rischio la nostra sanità mentale per preservare una visione più completa della realtà e di quello che accade lontano da noi. Ma dobbiamo anche fare una seria riflessione su quanto potere vogliamo dare agli algoritmi, tutt'altro che infallibili, e cosa lasciare invece agli esseri umani.

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012