I moderatori al lavoro sulla disamina dei contenuti segnalati su TikTok hanno denunciato l’azienda chiedendo maggiori tutele. Il loro compito è infatti del tutto ingrato: hanno il dovere di guardare e giudicare video pubblicati sulla piattaforma e segnalati dalla community, dovendo così affrontare in molti casi ore e ore di immagini raccapriccianti di ogni tipo.
Nulla di nuovo: eventi similari sono accaduti su ogni singola piattaforma social esistente. Grazie all’Intelligenza Artificiale si è in grado di filtrare parte dei contenuti, ma in molti casi solo la disamina umana è in grado di fermare alcuni contenuti che richiedono una analisi più approfondita o che sfuggono alle maglie censorie dell’IA. Ciò espone però un essere umano ad immagini che un essere umano non dovrebbe mai incontrare: l’accusa a ByteDance è di aver lasciato i propri dipendenti privi di una tutela psichica di fronte a scene di violenza (suicidi, cannibalismo, violenza sessuale, mutilazioni animali e altro ancora).
L’accusa contro ByteDance è di non aver perseguito medesimi standard imposti dal mercato, che prevedono per i dipendenti pause frequenti ed assistenza psicologica, nonché aree offuscate sulle immagini per ridurre l’impatto emotivo delle stesse. Le conseguenze sono reazioni emotive quali depressione o attacchi di ansia: in assenza di adeguata preparazione e adeguate tutele, infatti, il compito ingrato di guardare certe immagini porta inevitabilmente a distorsioni psichiche che si trasferiscono facilmente nelle ore extra-lavorative.
E pensare che dovrebbero essere soltanto ore passate a guardare video su TikTok.