Facebook ha annunciato l’esordio di una nuova intelligenza artificiale che avrà il compito specifico di intervenire tempestivamente sulle immagini intime di qualcuno condivise come “revenge porn”.
L’obiettivo è duplice: da un lato automatizzare almeno in parte l’individuazione di tale pericolose violazioni della privacy (veri e propri atti di cyberbullismo), dall’altro – conseguentemente – intervenire in modo tempestivo su possibili successive ricondivisioni.
Il tema delle segnalazioni e delle policy di Facebook è da anni oggetto di accese discussioni, anche tra gli stessi utenti del social: non è sempre chiaro quale sia il metro di giudizio adottato dal social network per stabilire quali contenuti possano restare sul sito e quali invece non debbano trovarvi spazio; e anche nel caso in cui la necessità di censura sia di tutta evidenza, le tempistiche di risposta da parte di Facebook non sono sempre affidabili, come dimostra il caso che ha visto suo malgrado protagonista la campionessa olimpica Bebe Vio.
In Italia la questione del Revenge Porn è salito drammaticamente agli onore della cronaca con il caso Cantone e ha poi visto la giornalista e blogger Selvaggia Lucarelli riuscire ad attirare l’attenzione su una serie di pagine che commentavano con linguaggi violenti immagini di donne (spesso rubate alla vita quotidiana) portando alla chiusura (temporanea) di una di queste (“Sesso Droga e Pastorizia”), individuata come una delle più famose con oltre un milione e mezzo di utenti.
Nel frattempo, anche le istituzioni italiane lamentano una disparità di trattamento da parte di Facebook e in particolare una mancanza di collaborazione nel trattare questi casi e il proliferare delle bufale rispetto ad altri Paesi, con Francia e Germania in testa, dove il social network sta da mesi sperimentando nuovi strumenti per intervenire sulla qualità dei contenuti.
Per affrontare, quindi, almeno in parte tali problemi e in particolare quelli più urgenti legati ai contenuti legati al revenge porn, il social network ha sviluppato un’intelligenza artificiale ad hoc che, come spiega il vertice della sicurezza globale Antigone Davis sarà inizialmente affiancato da “rappresentanti istruiti apposta da parte dei nostri addetti alle community” e che avrà l’obiettivo di contrassegnare le immagini segnalate dagli utenti per adottare un sistema di riconoscimento delle stesse volto a impedire che vengano condivise nuovamente sulla piattaforma.
Claudio Tamburrino