Il lato oscuro di Facebook è emerso dalle testimonianze dei moderatori: costretti a vedere contenuti agghiaccianti senza le giuste tutele.
Nel corso degli anni Facebook è stato spesso al centro delle polemiche per via della gestione dei contenuti e della sicurezza degli utenti. Il primo scandalo che ha coinvolto l’azienda americana si è verificato nel 2016, all’indomani dell’elezione di Donald Trump come presidente degli Stati Uniti d’America. In quella occasione si è scoperto che un’azienda esterna, Cambridge Analytica, aveva sfruttato proprio i dati forniti da Facebook per fare sondaggi sulle elezioni, influenzare l’opinione dei votanti e fare sostanzialmente propaganda politica.
L’accaduto è emerso pubblicamente nel 2017, quando i quotidiani The Guardian, Das Magazine e Vice hanno pubblicato degli articoli riguardanti l’accaduto. La vicenda ha permesso che si accendessero i riflettori sulla questione trattamento dati sui social. Da quel momento è stato chiaro che era necessario un maggior controllo ed una maggiore tutela riguardo i dati degli utenti.
Quanto scoperto, però, era solamente la punta dell’iceberg. Nel 2018 è emerso con chiarezza che Facebook era invaso da contenuti di tipo politico e che molti dei post e dei video che venivano condivisi sul social spingevano odio verso una particolare minoranza o una particolare questione sociale (qui da noi abbondava di contenuti contro i migranti ad esempio). Di fatto il social non era in grado di filtrare i contenuti dannosi, verbalmente violenti e fake news, anzi sembrava che proprio questi avessero una maggiore visibilità.
Facebook, il cambio d’algoritmo e l’assunzione di aziende esterne per moderare i contenuti.
In seguito alle crescenti polemiche e alla bufera mediatica che aveva coinvolto la sua azienda, Mark Zuckerberg ha deciso di affrontare la questione in maniera seria per scongiurare che episodi come quelli verificatisi tra il 2016 ed il 2018 si ripetessero. Il fondatore del social e proprietario dell’azienda ha investito ingenti somme nella modifica degli algoritmi. Questi sarebbero dovuti servire per filtrare automaticamente i contenuti dannosi, bloccare le pagine che trattavano di questioni politiche, sociali e razziali in modo dannoso, ma anche quelle che spingevano le fake news.
Ovviamente affinché il nuovo sistema di controllo funzionasse era necessario assumere anche una mole gigantesca di moderatori. Così è stato, si stima che attualmente Facebook si affidi a circa 15.000 moderatori in tutto il mondo. Ci sono moderatori interni e altri che provengono da contratti di appalto con 20 aziende sparse per il mondo. Una squadra vera e propria la cui finalità è quella di eliminare contenuti potenzialmente dannosi per gli utenti.
Le accuse dell’ex dipendente
L’azienda non è mai riuscita a ripulire totalmente la propria immagine da criticità e dubbi. Questo anche perché nel 2021, un’ex dipendente ha trafugato dei documenti e delle chat interne all’azienda per consegnarle al Wall Street Journal e denunciare l’atteggiamento poco responsabile di Meta e nei confronti degli utenti. Le rivelazioni contenute nel report del quotidiano americano sono state una bomba mediatica e hanno innalzato nuovamente l’allerta sull’operato di Facebook.
L’ex dipendente, Frances Haugen, è stata anche chiamata a deporre dal Senato americano e in quell’occasione ha ribadito le proprie accuse, sostenendo che all’interno dell’azienda non ci sarebbe alcun interesse nel proteggere la sensibilità degli utenti e che l’unico vero interesse sarebbe il profitto. Insomma a suo avviso Facebook avrebbe deliberatamente concesso la diffusione di disinformazione e fake news, un atteggiamento che a suo avviso avrebbe favorito l’attacco al Campidoglio del gennaio 2021, quando i sostenitori di Trump hanno protestato violentemente contro l’insediamento di Joe Biden.
Facebook, il dramma dei moderatori: costretti a vedere ogni giorno il peggio dell’umanità
Ovviamente Facebook ha respinto al mittente tutte le accuse dell’ex dipendente e smentito le sue conclusioni. D’altronde gli investimenti in campo di controllo dei contenuti e tutela degli utenti sono stati fatti. Il social può contare su un’armata di moderatori e in questi anni sono emerse testimonianze sul lavoro complesso che sono chiamati a svolgere quotidianamente.
Questi lavoratori fungono da filtro per i contenuti dannosi e senza di loro il social network sarebbe pieno di video e immagini scioccanti. Un lavoro duro e difficile da gestire che negli anni ha causato non poche problematiche psicologiche a chi è costretto a svolgerlo. Dati e testimonianze confermano che l’azienda ha lavorato per migliorare la gestione di contenuti, tuttavia non mancano le criticità in questo ambito.
Proprio in merito a questo ruolo sono emerse ulteriori criticità riguardanti la gestione dei lavoratori addetti a questa mansione da parte di Facebook. Vi basti pensare che nel 2020 Meta ha pagato 52 milioni di dollari per risolvere una causa intentata dai moderatori americani e fornire loro le cure psicologiche di cui avevano bisogno.
Ma i lavoratori americani non sono stati gli unici a sollevarsi contro l’azienda tech, attualmente sono aperte cause sia in Irlanda che in Kenya. Ciò che viene contestato a Meta sono orari di lavoro insostenibili per il tipo di lavoro sensibile che sono chiamati a svolgere, la mancanza di supporto psicologico adeguato e una retribuzione non sufficiente.
Le testimonianze dei moderatori
Nei giorni scorsi il Financial Times ha pubblicato una serie di testimonianze provenienti da ex dipendenti della Sama, azienda a cui Meta aveva appaltato la moderazione dei contenuti su Facebook in Kenya nel 2019. Quattro anni dopo l’inizio di questo lavoro, i moderatori kenioti hanno fatto causa a Meta al fine di ottenere condizioni lavorative più eque.
Sul quotidiano è riportata la testimonianza di Brownie, dipendente che ha rivelato di essere costretto ogni giorno a vedere un video ogni 55 secondi e di dover scegliere se è adatto alla condivisione o meno. L’impatto con questo lavoro è stato complesso, visto che il primo giorno gli è capitato di vedere il video di un uomo che si suicidava davanti al figlio. Immagini che lo hanno colpito al punto da causargli il vomito.
Con il passare del tempo le cose non sono migliorate, anzi negli anni il moderatore ha visto centinaia se non migliaia di contenuti difficili da digerire: “C’è la pedopornografia, la bestialità, la necrofilia, i danni agli esseri umani, agli animali, gli stupri“. Tutti contenuti, insomma, che l’utente medio non deve assolutamente vedere e che lui – come i suoi colleghi – ha il compito di bloccare e segnalare.
Un lavoro importantissimo che ha delle conseguenze gravi a livello psicologico, come spiegato da Kauna Ibrahim Malgwi (laureata in psicologia che ha cominciato a lavorare nell’hub di Sama nel 2019): “Una volta che l’hai visto non puoi più vederlo. Molti di noi ora non riescono a dormire“.
Il parere dell’esperta
La causa intentata dai dipendenti della Sama è stata appoggiata dallo studio legale londinese no-profit Foxgloves. Raggiunta dalla stampa, la direttrice dello studio legale Cori Crier ha spiegato perché i moderatori ricevono dall’azienda una protezione del tutto inadeguata allo stress mentale che causa questo lavoro.
Per dare un’idea concreta di ciò spiega: “I poliziotti che indagano su casi di immagini di abusi su minori hanno un’armata di psichiatri e limiti severi sulla quantità di materiale che possono vedere “. Al contrario i moderatori assunti dall’azienda keniota sono stati costretti ad una sovraesposizione a materiale sensibile. Inoltre gli psicologi assunti per dare loro sostegno morale si sono rivelati totalmente inadeguati al compito.