Il Guardian ha ottenuto documenti a uso interno di Facebook che mostrano qualche dettaglio in più sulle policy di intervento del social network sui contenuti segnalati dagli utenti .
Il tema delle segnalazioni e delle policy di Facebook è da anni oggetto di accese discussioni, anche tra gli stessi utenti del social: non è sempre chiaro quale sia il metro di giudizio adottato dal social network per stabilire quali contenuti possano restare sul sito e quali invece non debbano trovarvi spazio.
Da qualche mese il dibattito circa le capacità del suo sistema di rimozione e i criteri da esso adottati nella moderazione dei contenuti caricati dagli utenti è d’altra parte sempre più accesso: in Italia , per esempio, imbarazzo e sconcerto erano sorti a seguito dei ritardi nella rimozione di alcuni commenti-insulti nei confronti della campionessa olimpica Bebe Vio e in occasioni di tragici eventi di cronaca legati al cyberbullismo che hanno portato anche ad una nuova disposizione normativa in materia.
A livello internazionale il dibattito è ancora più accesso, a causa soprattutto della permanenza per diverse ore sulla sua piattaforma di alcuni video particolarmente violenti che – attraverso il suo streaming live – hanno mandato in diretta omicidi e suicidi. E per acquietare le critiche, a niente sembra valso l’intervento di Zuckerberg in persona che aveva annunciato di voler rivedere i meccanismi con cui al momento si interviene sui contenuti violenti condivisi sulla piattaforma, sostenendo che non vi fosse posto per queste cose contrarie alla privacy di Facebook e al suo senso di comunità.
Nei documenti ora divulgati dal media britannico, si possono trovare ora maggiori indicazioni circa tale senso di comunità : vi è una lista delle imprecazioni possibili non passibili di rimozione, nonché di quelle che superano la soglia di tolleranza, con la generica indicazione che gli utenti usano un linguaggio violento su Facebook per sfogarsi e pertanto vi deve essere una soglia di tolleranza; vi sono poi slide dedicate al revenge porn e addirittura al cannibalismo; esplicitamente proibite, poi, le minacce a capi di stato o altre figure pubbliche (che sul social network vengono considerati tutti coloro che hanno più di 100mila follower); stessa netta proibizione è prescritta per i contenuti sessuali o semplicemente di nudo anche nel caso di attività d’arte digitale, mentre possono essere tollerati se prodotti a mano; permessi i video di aborti, ma non se contengono dei nudi.
Meno chiare solo le altre situazioni: anche i video di morti violente, riferisce i social network, possono essere solo contrassegnate come disturbanti e non rimosse se possono aiutare a sollevare l’interesse e l’impegno su un determinato problema, come potrebbe essere il caso delle malattie mentali.
Difficile distinguo è fatto inoltre per quanto riguarda le immagini di violenze sugli animali e di abusi non sessuali sui bambini: in questi casi sembra prevalere la volontà di non censurare i contenuti, in particolare per la possibilità di utilizzare la combinazione di foto e testimonianze e la rete di contatti Facebook per individuare eventuali responsabili. Questo, naturalmente, inserendo limitazioni per esempio al possibile pubblico (segnalandoli come “disturbanti”) e prevedendo la rimozione nel caso in cui tali immagini fossero usate per incoraggiare tali atti. In generale, in caso di segnalazione si propende per la rimozione.
Secondo gli osservatori , oltre a fare un po’ più di luce sui criteri adottati da Facebook, tali documenti sembrano avvicinare il social network ad un vero e proprio editore, dato che documenti simili nella forma e nella sostanza sono utilizzati anche nelle redazioni dei giornali: la posizione del social resta invece ferma nel definirsi un mero intermediario che in quanto tale non può intervenire preventivamente sui contenuti postati dagli utenti, di cui di conseguenza non può essere considerato responsabile.
D’altra parte, già così il compito dei suoi moderatori appare oberante: secondo alcune indiscrezioni essi riferiscono di essere del tutto soverchiati dalla mole di contenuti da controllare, tanto da avere “appena 10 secondi” per prendere una decisione. Negli stessi documenti, per capire la consistenza del fenomeno, Facebook afferma di dover controllare ogni settimana più di 6,5mila segnalazioni di possibili falsi account, che rappresentano una delle fonti principali di contenuti violenti e fake news.
Claudio Tamburrino