Facebook sta lavorando a un sistema basato sull’intelligenza artificiale in grado di individuare e contrassegnare materiale offensivo nei video in live streaming. Lo ha rivelato Joaquin Candela , direttore dei sistemi di machine learning dell’azienda di Menlo Park.
L’azienda è stata coinvolta in molte controversie nel corso di quest’anno a causa della rimozione di materiale contenuto offensivo. Si ricordi, ad esempio, il caso di una foto icona della contestazione alla guerra del Vietnam, dove appare una bambina vietnamita che corre nuda dopo un bombardamento, rimossa appunto con l’accusa di “nudità”, senza tenere conto della portata storica dell’immagine. O al dilagare di notizie false , le cosiddette “bufale” sul proprio sito.
Da sempre Facebook fa analizzare da propri collaboratori migliaia di post allo scopo di rimuovere (e “sanzionare” con sospensioni) immagini e filmati che non rispondono agli “standard della comunità”. Candela ha ora dichiarato che Facebook sta agendo sul fronte dell’ intelligenza artificiale per individuare il materiale offensivo . In particolare, si lavora su “un algoritmo che individua nudità, violenza o altri elementi che non siano in accordo con le nostre politiche”. L’azienda sta anche lavorando per l’individuazione di contenuti estremistici nei video, come già riportato lo scorso giugno.
L’utilizzo dell’intelligenza artificiale per contrassegnare i video live è ancora allo stadio di ricerca, ha dichiarato Candela. Due sono le sfide da vincere, spiega: “Uno, l’algoritmo di visione deve essere veloce. Secondo, occorre dare priorità alle cose nel modo giusto, così come fa l’occhio umano, un esperto che conosce le nostre politiche e annota le cose che vede”. Facebook utilizza l’automazione per elaborare dieci milioni di segnalazioni ogni mese, per riconoscere report duplicati e indirizzare I contenuti contrassegnati agli esaminatori con la catalogazione appropriata.
Mark Zuckerberg, CEO di Facebook, ha affermato il mese scorso che Facebook sta passando all’automazione come parte di un piano per identificare le notizie false. Questa affermazione è arrivata dopo che, in occasione delle elezioni USA dell’8 novembre, gli utenti del social network avevano potuto leggere notizie palesemente false come quella che Papa Francesco avrebbe appoggiato il candidato Donald Trump e che un agente federale che stava indagando su Hillary Clinton sarebbe stato trovato morto.
Un altro tema che l’algoritmo in fase di test da parte di Facebook si propone di affrontare è il bullismo. I sistemi di intelligenza artificiale sembrano altresì essere un’arma adatta a contrastare il fenomeno della diffusione in rete di immagini e video pedopornografici. Anche l’Interpol, infatti, ha deciso di farvi ricorso per passare al setaccio l’enorme quantità di materiale immesso, allo scopo di individuare e catturare gli autori di questo genere di crimini.
Pierluigi Sandonnini