Dopo inizierà l’IA Safety Summit organizzato dal Primo Ministro del Regno Unito. Diverse aziende, organizzazioni e rappresentanti di alcuni governi hanno sottoscritto ieri l’accordo che prevede una collaborazione per contrastare la diffusione di CSAM (Child Sexual Abuse Material) generati dall’intelligenza artificiale.
CSAM IA in preoccupante aumento
La risoluzione è stata firmata durante un evento ospitato dal Segretario di Stato in partnership con Internet Watch Foundation (IWF). Quest’ultima ha recentemente pubblicato un report che evidenzia la crescente diffusione di immagini con bambini generate dall’intelligenza artificiale. I cybercriminali sfruttato tecnologie che permettono di spogliare digitalmente i bambini vestiti e di ringiovanire le foto di persone famose per inserirle in scene di abusi sessuali.
La diffusione dei CSAM IA rallentano anche le attività delle forze dell’ordine, in quanto è più difficile identificare le vittime e rintracciare i criminali. Per trovare una soluzione è necessaria la collaborazione di tutte le parti interessate. L’intelligenza artificiale può essere utilizzata per combattere gli abusi sessuali sui minori con l’aiuto delle aziende che operano in questo settore.
Tra i firmatari ci sono Stability AI, TikTok, Snapchat, OnlyFans, Internet Watch Foundation (IWF), National Center for Missing and Exploited Children (NCMEC), National Crime Agency (NCA), il Dipartimento di Giustizia degli Stati Uniti, il governo tedesco e le forze dell’ordine italiane.
L’argomento verrà ovviamente trattato durante l’IA Safety Summit (1-2 novembre), al quale parteciperanno diversi leader politici (per l’Italia ci sarà Giorgia Meloni) e dirigenti di Big Tech, tra cui Mark Zuckerberg (CEO di Meta).