Moderatori citano in giudizio Meta/ “Costretti a vedere video choc ogni giorno”
L’azienda di Mark Zuckerberg, Meta, è stata citata in giudizio da un moderatore di contenuti, Daniel Motaung, costretto a vedere filmati orribili

Meta, l’azienda a capo di Facebook, finisce sotto la lente di ingrandimento, per le gravissime accuse di traffico di esseri umani e attività antisindacali. Tutta colpa di un contratto di lavoro con una ditta, la società di ousourcing Sama, che l’anno scorso, stando a quanto sostenuto dall’ex dipendente Daniel Motaung, avrebbe imposto delle “condizioni di lavoro irragionevoli” ai lavoratori, a cominciare da retribuzioni irregolari, un inadeguato sostegno alla salute mentale e violazioni della privacy.
Il problema principale, come si legge su Wired, è che la società che andrà a rimpiazzare Sama, la Majorel, è accusata dal Financial Times di essere probabilmente peggiore. Ha infatti già dei contratti con Meta in Marocco e un dipendente che lavora a Nairobi ha spiegato che: “Il lavoro è traumatizzante e ci pagano noccioline”, così come riferito a Wired US. Tornando a Sama, Daniel Motaung fa il moderatore di contenuti ed ha spiegato di essere pagato 2,20 dollari all’ora, circa due euro, per vedere post in continuazione di decapitazioni e abusi sui minori. Di conseguenza ha deciso di citare in giudizio il suo datore di lavoro, con il tribunale che ha fatto sapere che sia Meta quanto Sama fossero “legittime parti” del caso.
META CITATA IN GIUDIZIO DA MODERATORE: LA PRECEDENTE CAUSA DEL 2020
Già nel 2020 l’azienda a cui capo vi è Mark Zuckerberg aveva dovuto pagare 52 milioni di dollari per risolvere un caso promosso da alcuni moderatori di contenuti americani circa dei problemi di salute mentale che hanno purtroppo riscontrato a seguito del loro lavoro. Secondo Foxglove, il fatto che Motaung sia riuscito a citare in tribunale l’azienda rappresenta quindi una grande vittoria, un messaggio a Facebook e a tutte le altr big tech operanti in Africa: “La giustizia keniota – sostiene – è uguale a qualsiasi gigante tecnologico, e i giganti farebbero bene a svegliarsi e rispettare il popolo keniota e la loro legge”.
Facebook è solito impiegare migliaia di moderatori, ricordano i britannici della BBC per moderare i contenuti che vengono pubblicati e segnalati dagli utenti o dai sistemi di intelligenza artificiale, e controllare se gli stessi violino gli standard della comunità della piattaforma. Di conseguenza vengono poi rimossi dopo la visione e coloro che lavorano in questa sezione sono costretti a vedere cose indicibili ogni giorno. A riguardo il signora Motaung ha spiegato che il video filmato che ha visto è stato quello di un “uomo vivo che veniva decapitato”.
© RIPRODUZIONE RISERVATA
Ultime notizie di Hi-Tech
-
Russia, riconoscimento facciale per arrestare dissidenti/ A Mosca 3.000 telecamere29.03.2023 alle 15:00
-
Lenovo Yoga Book 9i/ Presentata la nuova gamma di computer portatili: tutte le novità29.03.2023 alle 08:43
-
Armi per l'Ucraina, data center di Tik Tok ostacola produzione/ La denuncia di Nammo28.03.2023 alle 23:08
-
Dimissioni in diretta TikTok/ Moda #quittok: "siamo protagonisti della nostra vita"28.03.2023 alle 19:13
Ultime notizie
-
Diretta/ Sinner Ruusuvuori (risultato 2-0) streaming video tv: è semifinale!30.03.2023 alle 00:44
-
Dora, sottoposta a TSO in una RSA/ "Questo è un manicomio, mi butto dalla finestra…"30.03.2023 alle 00:14
-
Diretta/ Zaksa Perugia (risultato finale 3-1): andata ai polacchi29.03.2023 alle 22:47
-
MATRIMONIO A PRIMA VISTA ITALIA 2023/ Diretta: Simona e Gennaro ci riprovano29.03.2023 alle 22:51
-
MATTIA E GIULIA, MATRIMONIO A PRIMA VISTA 2023/ Il primo vero litigio e la pausa29.03.2023 alle 22:50