Milano – Sfruttare un social network per un importante scopo sociale: prevenire i suicidi individuando i soggetti a rischio che mostrano un comportamento preoccupante . Facebook lavora a questi strumenti da anni , e ora aggiunge un nuovo tasello al puzzle: algoritmi di intelligenza artificiale saranno impiegati per riconoscere i comportamenti pericolosi ed intervenire a mezzo chat per provare a scoraggiare atti di autolesionismo estremo.
L’ approccio seguito da Facebook si divide su tre direttrici: innanzi tutto verrà sfruttato il canale Live, le dirette a mezzo Facebook, per far sentire sostenuti i soggetti problematici attraverso i commenti e la presenza dei componenti della sua rete di contatti. In più il sistema di segnalazione dei contenuti problematici, quelli che i navigatori giudicano prodromo di situazioni pericolose, potranno essere segnalati direttamente dall’interno di una diretta al team che si occupa della prevenzione dei suicidi all’interno di Facebook, così da poter valutare il contenuto del video in tempo reale o in ogni caso con molta celerità. Il sistema è volto a comprendere quanto sta succedendo e fornire le risposte appropriate: non sarà semplicemente fermata una diretta potenzialmente problematica, ma si tenterà di intervenire per gestire la situazione al meglio.
Prosegue poi il programma per consentire di cercare aiuto attraverso il social network: si potrà decidere di avviare una chat in tempo reale via Messenger con un componente di una delle organizzazioni che collaborano ormai da tempo con Facebook. Questa iniziativa per ora è sperimentale, ma verrà fatta crescere e allargarsi col tempo: Zendesk ha donato tecnologia per supportare questo strumento, e Facebook pubblicizzerà sul proprio sito questa possibilità.
Infine, veniamo al capitolo intelligenza artificiale: è importante che le segnalazioni dei comportamenti a rischio siano il più semplici e dirette possibili, così da non scoraggiare chi dovesse ravvisarne qualcuno dall’agire. Facebook ha consultato esperti in materia per semplificare il processo , e ha deciso di aggiungere un sistema basato sull’analisi del comportamento (confrontando le azioni attuali con schemi consolidati riconoscibili) per generare un alert automatico da sottoporre al team di prevenzione. Verrà anche fornito un indicatore per stabilire la gravità della situazione, in modo tale da poter intervenire in modo efficace.
Naturalmente per ora queste novità sono disponibili unicamente per la lingua inglese, ma non è escluso che prossimamente possano venire allargate ad altri lingue ed altri paesi oltre gli Stati Uniti.
Luca Annunziata