Mastodon è uno dei social network che ha beneficiato dell’arrivo di Elon Musk alla guida di X (Twitter). La sua natura decentralizzata evita ogni imposizione dall’alto, ma complica anche la moderazione dei contenuti. Uno studio dello Stanford Internet Observatory ha evidenziato la presenza di molti contenuti CSAM (Child Sexual Abuse Material).
112 CSAM in 325.000 post
Come è noto, Mastodon è costituito da una federazione di server (istanze) collegato tra loro con il protocollo ActivityPub (che verrà supportato anche da Threads). Ogni istanza ha termini di servizio e soprattutto regole di moderazione differenti. Mastodon ha molti vantaggi rispetto ai tradizionali social network, come Twitter o Facebook. Tuttavia è più difficile verificare il rispetto delle regole.
I moderatori sono volontari (spesso sono gli stessi amministratori dei server) e non esistono strumenti sofisticati per l’automazione dei controlli. Le conseguenze sono state evidenziate dallo studio dello Stanford Internet Observatory. I ricercatori hanno analizzato le 25 istanze più popolari di Mastodon per due giorni, sfruttando le API SafeSearch di Google e il tool PhotoDNA di Microsoft per individuare contenuti CSAM.
Al termine della ricerca sono state scoperti 112 CSAM in circa 325.000 post e quasi 2.000 post con hashtag e keyword che fanno riferimento allo scambio di questo tipo di materiale. Nello studio viene citato il caso del server mastodon.xyz. L’unico amministratore e moderatore ha messo offline l’istanza per 24 ore, dopo aver ricevuto una segnalazione dall’hosting provider relativa alla pubblicazione di contenuti CSAM.
Purtroppo questo problema è difficile da risolvere al momento. I tool che permettono di rilevare contenuti CSAM, come PhotoDNA, sono sviluppati per servizi centralizzati, quindi devono essere modificati per supportare l’architettura del fediverso.