Facebook blocca sul nascere il terrorismo con l'AI

Facebook blocca sul nascere il terrorismo con l'AI

Dal riconoscimento dei volti all'interpretazione del linguaggio, l'intelligenza artificiale è alla base di numerosi sistemi utilizzati da Facebook per contrastare i terroristi. Ma l'uomo continua ad essere fondamentale
Dal riconoscimento dei volti all'interpretazione del linguaggio, l'intelligenza artificiale è alla base di numerosi sistemi utilizzati da Facebook per contrastare i terroristi. Ma l'uomo continua ad essere fondamentale

La lotta al terrorismo si combatte sempre più su Internet e in particolare sui social network. Facebook ha dichiarato di voler rafforzare i controlli al fine di espugnare qualsiasi roccaforte di gruppi terroristici celati dietro pagine insospettabili o account personali. “Non c’è spazio su Facebook per il terrorismo. Rimuoveremo i terroristi e i post che supportino il terrorismo non appena ce ne accorgiamo” – ha reso noto Facebook con una nota stampa .

Facebook

Una delle criticità su cui da sempre Facebook lavora è il mantenimento della piattaforma sicura per i suoi utenti. Lo ha ribadito più volte, e il lavoro di “pulizia” è diventato nel tempo un tema sempre più caldo che ha richiesto il rafforzamento di filtri tecnologici e umani, il ripensamento del meccanismo per la discriminazione tra notizie vere e fasulle e non ultimo l’aggiornamento delle regole d’utilizzo divenute più stringenti . Ora è giunto il momento di uscire dalla fase di preservazione e passare all’attacco, cogliendo le richieste provenienti dalla comunità e dalla politica. L’ultimo monito di combattere il terrorismo concentrando l’attenzione online è arrivato tanto da Theresa May quanto da Emmanuel Macron, entrambi primi ministri di due Paesi duramente colpiti da attacchi terroristici, Regno Unito e Francia.

Il processo che Facebook adotta come prevenzione, come raccontato da Monika Bickert, Director of Global Policy Management, e Brian Fishman, Counterterrorism Policy Manager, non si limita alla mera intercettazione di parole chiave sospette all’interno di post ed eventuale segnalazione alle autorità in casi particolarmente urgenti e gravi. Il meccanismo è farcito di avanzati sistemi di intelligenza artificiale in grado di riconoscere foto o video contenenti sospettati (“image matching”) e bloccarne il caricamento, ma anche di interpretare il linguaggio (“language understanding”) prevenendo così la pubblicazione di articoli inneggianti al terrorismo. L’AI di Facebook è inoltre in grado di punire i recidivi , quegli utenti che in maniera sempre più sofisticata cercano di bypassare i controlli creando falsi account, così come di smantellare cellule terroristiche . In questo caso la ricerca e la definizione del rischio avvengono sulla base del tentativo di condivisione di materiale vietato o la presenza di un numero elevato di like e amicizie a pagine o account rimosse precedentemente per violazioni. L’opera di controllo è per di più multipiattaforma analizzando e incrociando dati non solo di Facebook, ma anche di WhatsApp e Instagram.

Facebook sa bene che l’intelligenza artificiale è un supporto irrinunciabile, ma sa altrettanto bene che è necessario l’ intervento umano per meglio comprendere alcuni contesti su cui gli algoritmi possono essere tratti in inganno. Le “sfumature” sono affidate quindi ai controlli ferrei compiuti da un numero cospicuo di specialisti che lavorano 24 ore al giorno. Solo nell’ultimo anno Facebook ha incrementato il numero di addetti di 3mila unità arrivando a 7.500 persone attive nei processi di controllo , come lo stesso Zuckerberg ha reso noto , di cui 150 specializzate nella prevenzione del terrorismo in stretto contatto con le forze dell’ordine in ottica collaborativa.

La stessa collaborazione emerge anche dalle numerose partnership nate con istituzioni e altre aziende. Si va dalla condivisione e alimentazione di un unico database di dati identificativi di criminali e terroristi assieme a Microsoft, Twitter e YouTube; con i governi e organizzazioni intergovernative sono stati aperti tavoli di lavoro per la condivisione di informazioni (in particolare con l’EU Internet Forum, la Global Coalition Against Daesh e il UK Home Office). In collaborazione con alcune ONG sono stati anche attivati progetti che mirano a coinvolgere esperti influenzatori in grado di fornire repliche e messaggi volti a dissuadere eventuali comportamenti a rischio . Naturalmente l’aspetto culturale è fondamentale, e a tal proposito sono state attivate numerose iniziative di sensibilizzazione della cittadinanza con il supporto di associazioni e istituti come l’Institute for Strategic Dialogue ma anche studenti in tutto il mondo che hanno partecipato a realizzare e diffondere oltre 500 campagne anti-odio e contro l’estremismo.

In questo caso la tecnologia oltre ad essere funzionale all’obiettivo sembra riuscire a rispettare anche la privacy, un tema che spesso viene tirato in ballo quando si parla di controllo sulle persone (è questo uno dei motivi per cui è stata bocciata la proposta di legge anti-terrorismo italiana ad esempio). Rimane inteso infatti che i messaggi protetti con end-to-end encryption non vengono violati, seppur sia garantita ovviamente la piena collaborazione con le autorità nell’opera di contrasto.

Gli sforzi compiuti fin qui sono elevati e dimostrano un reale impegno verso l’obiettivo. Stesso impegno condiviso anche da molte altre piattaforme seppur con qualche difficoltà. Twitter ad esempio è stata costretta a subire accuse di “favoreggiamento” al terrorismo per non aver saputo bloccare sul nascere alcune minacce riuscendo a cavarsela appellandosi alla Communications Decency Act (CDA) che definisce non perseguibili gli intermediari online per eventuali contenuti dannosi creati da terzi, ma soprattutto adottando essa stessa regole più ferree.

Mirko Zago

fonte immagine

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 giu 2017
Link copiato negli appunti