Il Coimisiún na Meán, equivalente irlandese dell’italiana AGCOM, ha stabilito che i servizi di Meta (Facebook in particolare) sono esposti a contenuti terroristici. Quindi, in base al Terrorist Content Online Regulation, l’azienda di Menlo Park deve implementare adeguate misure per impedirne la diffusione. Una simile decisione era stata emessa a novembre nei confronti di Instagram, TikTok e X.
Contenuti da eliminare entro 60 minuti
A fine aprile 2021 è stata approvata in Europa una legge (Terrorist Content Online Regulation) che impone ai service provider di rimuovere contenuti terroristici (testo, immagini, audio, video e live streaming) entro 60 minuti dalla segnalazione. Le sanzioni per il mancato rispetto dell’obbligo possono arrivare al 4% delle entrate globali annuali. Anche il Digital Services Act prevede disposizioni per contrastare la diffusione di contenuti illegali.
La legge, parte dell’Online Safety Framework del Coimisiún na Meán, stabilisce che una piattaforma online viene considerata esposta a contenuti terroristici, se riceve due o più ordini di rimozione dalle autorità europee competenti negli ultimi 12 mesi. Tale condizione è stata rispettata per Facebook, ma non è chiaro quali contenuti sono stati trovati sul social network.
Meta dovrà comunicare al Coimisiún na Meán le misure adottate per limitare la diffusione di contenuti terroristici entro tre mesi dal ricevimento della decisione. Tali misure dovranno essere efficaci, mirate, proporzionate e rispettose dei diritti fondamentali degli utenti. L’autorità irlandese valuterà l’efficacia delle misure.
Un portavoce di Meta ha dichiarato che sono state già implementate diverse misure, grazie alle quali l’azienda ha rimosso il 99% dei contenuti segnalati.