Claudio Tamburrino

Facebook, le regole segrete della moderazione

Il Guardian divulga le policy adottatte dai moderatori del social network per intervenire sui contenuti di odio, sesso, terrorismo, fake news e così via. Ecco quel che si può pubblicare e cosa invece viene eliminato, anche se non sempre prontamente

Roma - Il Guardian ha ottenuto documenti a uso interno di Facebook che mostrano qualche dettaglio in più sulle policy di intervento del social network sui contenuti segnalati dagli utenti.

Il tema delle segnalazioni e delle policy di Facebook è da anni oggetto di accese discussioni, anche tra gli stessi utenti del social: non è sempre chiaro quale sia il metro di giudizio adottato dal social network per stabilire quali contenuti possano restare sul sito e quali invece non debbano trovarvi spazio.

Da qualche mese il dibattito circa le capacità del suo sistema di rimozione e i criteri da esso adottati nella moderazione dei contenuti caricati dagli utenti è d'altra parte sempre più accesso: in Italia, per esempio, imbarazzo e sconcerto erano sorti a seguito dei ritardi nella rimozione di alcuni commenti-insulti nei confronti della campionessa olimpica Bebe Vio e in occasioni di tragici eventi di cronaca legati al cyberbullismo che hanno portato anche ad una nuova disposizione normativa in materia.
A livello internazionale il dibattito è ancora più accesso, a causa soprattutto della permanenza per diverse ore sulla sua piattaforma di alcuni video particolarmente violenti che - attraverso il suo streaming live - hanno mandato in diretta omicidi e suicidi. E per acquietare le critiche, a niente sembra valso l'intervento di Zuckerberg in persona che aveva annunciato di voler rivedere i meccanismi con cui al momento si interviene sui contenuti violenti condivisi sulla piattaforma, sostenendo che non vi fosse posto per queste cose contrarie alla privacy di Facebook e al suo senso di comunità.

Nei documenti ora divulgati dal media britannico, si possono trovare ora maggiori indicazioni circa tale senso di comunità: vi è una lista delle imprecazioni possibili non passibili di rimozione, nonché di quelle che superano la soglia di tolleranza, con la generica indicazione che gli utenti usano un linguaggio violento su Facebook per sfogarsi e pertanto vi deve essere una soglia di tolleranza; vi sono poi slide dedicate al revenge porn e addirittura al cannibalismo; esplicitamente proibite, poi, le minacce a capi di stato o altre figure pubbliche (che sul social network vengono considerati tutti coloro che hanno più di 100mila follower); stessa netta proibizione è prescritta per i contenuti sessuali o semplicemente di nudo anche nel caso di attività d'arte digitale, mentre possono essere tollerati se prodotti a mano; permessi i video di aborti, ma non se contengono dei nudi.

Meno chiare solo le altre situazioni: anche i video di morti violente, riferisce i social network, possono essere solo contrassegnate come disturbanti e non rimosse se possono aiutare a sollevare l'interesse e l'impegno su un determinato problema, come potrebbe essere il caso delle malattie mentali.

Difficile distinguo è fatto inoltre per quanto riguarda le immagini di violenze sugli animali e di abusi non sessuali sui bambini: in questi casi sembra prevalere la volontà di non censurare i contenuti, in particolare per la possibilità di utilizzare la combinazione di foto e testimonianze e la rete di contatti Facebook per individuare eventuali responsabili. Questo, naturalmente, inserendo limitazioni per esempio al possibile pubblico (segnalandoli come "disturbanti") e prevedendo la rimozione nel caso in cui tali immagini fossero usate per incoraggiare tali atti. In generale, in caso di segnalazione si propende per la rimozione.

Secondo gli osservatori, oltre a fare un po' più di luce sui criteri adottati da Facebook, tali documenti sembrano avvicinare il social network ad un vero e proprio editore, dato che documenti simili nella forma e nella sostanza sono utilizzati anche nelle redazioni dei giornali: la posizione del social resta invece ferma nel definirsi un mero intermediario che in quanto tale non può intervenire preventivamente sui contenuti postati dagli utenti, di cui di conseguenza non può essere considerato responsabile.

D'altra parte, già così il compito dei suoi moderatori appare oberante: secondo alcune indiscrezioni essi riferiscono di essere del tutto soverchiati dalla mole di contenuti da controllare, tanto da avere "appena 10 secondi" per prendere una decisione. Negli stessi documenti, per capire la consistenza del fenomeno, Facebook afferma di dover controllare ogni settimana più di 6,5mila segnalazioni di possibili falsi account, che rappresentano una delle fonti principali di contenuti violenti e fake news.

Claudio Tamburrino
Notizie collegate
  • AttualitàFacebook, weekend di orroreNegli Stati Uniti un killer pubblica il video dell'omicidio appena compiuto e minaccia: "ne ho uccisi e ne ucciderò altri". Nel mirino finisce anche il social in blu, sulla cui piattaforma il video rimane disponibile per tre ore prima della rimozione
  • AttualitàFacebook, la faccia social dell'orroreIl famoso social network è di nuovo sotto pressione per un altro episodio di violenza ospitato dal suo servizio di streaming live. Occorrono soluzioni certe per fermare il dilagare di questo preuccupante fenomeno
  • AttualitàAustria: Facebook deve intervenire sull'odioIl social network condannato a rimuovere contenuti in violazione della legge sull'hate speech austriaca. Da tutta la sua piattaforma e non solo per i cittadini del paese
17 Commenti alla Notizia Facebook, le regole segrete della moderazione
Ordina
  • Basterebbe prevedere la categoria degli utenti confermati mediante l'invio di una copia di un documento di identità. Tali utenti sarebbero opportunsmente segnalati e sarebbe possibile accettare le richieste di amicizia solo da questi.
    non+autenticato
  • Molto bello un mondo in cui qualcuno si erge a giudice e stabilisce quello che si puo' pensare e quello che non si puo' pensare.
    Idee che si possono divulgare e altre che e' meglio nasconderle.

    Meglio per chi?

    Gia' e' orrendo il fatto che per poter esternare le proprie idee uno si debba preventivamente identificare mettendo cosi' la persona a repentaglio nei confronti di chi trova fastidiose tali idee, ma come se non bastasse le idee vengono pure censurate, senza regole, senza metro, senza misura.

    Cosi', in base a come si e' svegliato la mattina colui che si erge giudice, o quanto forte strillano quelli a cui le idee danno fastidio.
  • - Scritto da: panda rossa
    > Molto bello un mondo in cui qualcuno si erge a
    > giudice e,,,,,
    E chi stabilisce chi non può ergersi a giudice? Tu?
    non+autenticato
  • - Scritto da: azz

    > E chi stabilisce chi non può ergersi a giudice?
    > Tu?

    Non lo stabilisce nessuno, proprio perché nessuno può ergersi a giudice per stabilirlo.

    In una società realmente egualitaria, tutte le idee/opinioni contano allo stesso modo, e nulla può essere censurato/moderato per nessun motivo.
    non+autenticato
  • Metti davanti al video tuo figlio e fagli vedere un uomo che viene squartato
    non+autenticato
  • - Scritto da: Stupidaggin i
    > Metti davanti al video tuo figlio e fagli vedere
    > un uomo che viene squartato

    Tenere lontano tuo figlio da questi video è tuo compito come padre, non della piattaforma che ospita il video.
  • - Scritto da: bradipao
    ma per piacere... ormai sto lontano da queste parti, su PI si trovano solo fuddari, e mal moderati purtroppo
    non+autenticato
  • - Scritto da: Stupidaggin i
    > Metti davanti al video tuo figlio e fagli vedere
    > un uomo che viene
    > squartato

    Perché e tanto diverso da quanto avviene poi nella realtà? Vediamo quando invece vede pornografia spinta, gagband, sesso obbligato o porno snuff, e tutte le porcate che vedono ogni santo giorno sui monitor delle scatolette che voi GGenitori gli fornite appena compiuto i sei-sette anni e molto diverso?

    Fammi capire!
    non+autenticato
  • - Scritto da: Il Fuddaro
    che vuoi che ti risponda... ho altro da fare
    non+autenticato
  • - Scritto da: ...

    > In una società realmente egualitaria, tutte le
    > idee/opinioni contano allo stesso modo, e nulla
    > può essere censurato/moderato per nessun motivo.

    SUL TUO BLOG tu puoi decidere in tal senso,
    SUL MIO BLOG decido io, visto che tra l'altro ne rischio anche sul piano penale/amministrativo sulla base delle leggi vigenti...
    non+autenticato
  • se non si fosse capito il mio commento, Facebook è una piattaforma e non è tua... così come Punto Informatico, anch'esso ha come ovvio una policy di "moderazione", voi la chiamata censura, a me pare spesso solo buonsesno
    non+autenticato
  • Le regole scritte servono proprio a dare alla censura dei criteri.
    Quanto alla identificazione, anche io ho piacere di poter postare in modo anonimo le mie idee, ma faccio notare che è un 'lusso' che molti non possono permettersi, ad esempio tutti coloro che svolgono un ruolo pubblico (politici, sindacalisti, magistrati ecc), quindi come dire 'abbi il coraggio delle tue idee, mettici la faccia e rischia qualcosa', invece di voler fare le cose dietro la maschera, troppo comodo
    non+autenticato
  • Se non fossimo in una società che ha reso gli individui dei perfetti bambocci, grazie ad un eccesso di regole inverosimile, non ci sarebbe bisogno di moderare niente, perché ognuno sarebbe responsabile per se stesso, come succede per gli adulti, quelli veri, che sono pochissimi.

    Per quanto riguarda i bambini, quelli veri, se i genitori non fossero a lavorare per guadagnare abbastanza per sostenersi in una società insostenibile, non ci sarebbe bisogno di protezioni di nessun genere.
    Il problema è un po' più profondo della moderazione di di fakebook.

    Siamo sistemi in relazione complessa interdipendente con altri sistemi, ed è da superficiali accettare la visione delle cose così come ce le propinano in maniera 'ristretta' i politici e i loro portavoce giornalisti svogliati/superficiali/disinformati/venduti.
    non+autenticato
  • - Scritto da: reos
    > Se non fossimo in una società che ha reso gli
    > individui dei perfetti bambocci, grazie ad un
    > eccesso di regole inverosimile, non ci sarebbe
    > bisogno di moderare niente, perché ognuno sarebbe
    > responsabile per se stesso, come succede per gli
    > adulti, quelli veri, che sono pochissimi.

    può essere anche condivisibile, ma fortuna che ci sono gli eletti

    > Per quanto riguarda i bambini, quelli veri, se i
    > genitori non fossero a lavorare per guadagnare
    > abbastanza per sostenersi in una società
    > insostenibile,

    ma anche per la seconda auto, il tv 65" HDR, l'iPhone 23, i fine settimana a Parigi/Barbellona/Sharm ecc. ecce., insomma anche per una lunga serie di cose di cui potremmo fare a meno...
    non+autenticato