X ha annunciato l’apertura di un ufficio ad Austin (Texas) per il nuovo team Trust and Safety che si occuperà principalmente dell’individuazione dei contenuti CSE (Child Sexual Exploitation), ma la moderazione riguarderà anche altri rischi, come si può leggere nell’annuncio di lavoro. Secondo Bloomberg, l’azienda californiana assumerà 100 persone a tempo pieno.
Tolleranza zero per lo sfruttamento minorile
L’azienda californiana ha sempre avuto un team Trust and Safety, ma è stato praticamente smantellato (sono rimaste poche persone) da Elon Musk per ridurre i costi, in seguito all’acquisizione. La moderazione dei contenuti sfrutta principalmente i sistemi automatizzati e le segnalazioni degli utenti tramite “note della collettività” con risultati poco efficaci (come dimostra anche il recente caso delle immagini fake di Taylor Swift).
La CEO Linda Yaccarino verrà ascoltata dalla Commissione Giustizia del Senato degli Stati Uniti il prossimo 31 gennaio in merito alla moderazione dei contenuti CSE. X ha sfruttato l’occasione per sottolineare i progressi ottenuti nel contrasto a questa attività illegale. Nel 2023 sono stati sospesi 12,4 milioni di account e inviati 8.500 segnalazioni al National Center for Missing and Exploited Children (NCMEC).
L’individuazione di immagini, video e GIF avviene tramite intervento manuale e con il sistema di “media hash matching” sviluppato da Thorn. L’azienda californiana ha promesso di migliorare la rilevazione dei contenuti CSE e annunciato l’apertura di un ufficio ad Austin. Sarà composto da 100 persone che verificheranno il rispetto di altre regole, come quelle su incitamento all’odio e post violenti. Nell’annuncio di lavoro ci sono anche riferimenti a spam e frodi.
La moderazione dei contenuti è una delle aree sulle quali la Commissione europea ha avviato un procedimento formale contro X per rilevare eventuali violazioni del Digital Services Act.