YouTube, è la policy la vera legge

YouTube, è la policy la vera legge

Su segnalazione di BBC, la piattaforma di sharing rimuove video in cui giovani imbracciano armi e inneggiano alla violenza. Dimostrando che non ha bisogno di un quadro normativo che le imponga di assumersi responsabilità
Su segnalazione di BBC, la piattaforma di sharing rimuove video in cui giovani imbracciano armi e inneggiano alla violenza. Dimostrando che non ha bisogno di un quadro normativo che le imponga di assumersi responsabilità

A coloro che invocano controlli preventivi e moderazione pervasiva, le piattaforme che si nutrono di contenuti generati dai netizen dimostrano che i meccanismi per tutelare i cittadini della rete da materiale inopportuno o illegale sono già ben rodati e che non hanno bisogno di essere regolamentati per legge.

Da YouTube non possono controllare a priori il flusso di bit che ogni minuto rimpingua di 13 ore il materiale a disposizione della platea, ma si dimostrano attenti e puntuali nell’agire per rimuovere le clip che risultino in contrasto con le linee guida e con la sensibilità degli utenti. BBC ha osservato nei giorni scorsi il proliferare di clip che facevano riferimento agli eventi della Columbine High School: numerosi i giovani del Regno Unito che si esibiscono in video che echeggiano i fatti del 20 aprile del 1999, l’irruzione dei due giovani nelle aule dell’istituto, gli omicidi e il suicidio. Attingono ad immagini tratte dai media, imbracciano armi da fuoco, fanno esplicito riferimento a quanto accaduto in Colorado nove anni fa: non tutti si fanno interpreti di una volontà documentaristica, molti dimostrano con leggerezza spirito di emulazione, maneggiano la violenza con superficialità.

BBC ha segnalato i video come inadatti, la reazione di YouTube è stata pronta, i moderatori hanno effettuato un controllo sulle clip che inneggiavano agli omicidi della Columbine High School. Così come è avvenuto per i video in cui gli autori emulavano i responsabili di altre stragi, la rimozione è stata pressoché istantanea.

Facebook, dietro segnalazione dell’influente Simon Wiesenthal Center, nei giorni scorsi ha rimosso dal network pagine di gruppi neonazisti che inneggiavano illecitamente all’odio fra razze. Quelli rimossi da YouTube non erano invece contenuti esplicitamente vietati dalla legge, avrebbero potuto essere classificati come manifestazione di un’ esuberanza giovanile male canalizzata. Si scontravano però con la policy che regola il servizio. Peter Barron, responsabile delle comunicazioni di Google per il Regno Unito ha spiegato a BBC il meccanismo della rimozione: i video postati dai giovani infrangono le linee guida del servizio, gli utenti hanno segnalato l’inadeguatezza dei contenuti, YouTube li ha rimossi. “È tolleranza zero per i video che raffigurino con superficialità gli atti di violenza, abbiamo delle linee guida molto chiare a riguardo – spiega Barron – abbiamo rimosso e continueremo a rimuovere qualsiasi video che celebri la violenza”.

YouTube ha di recente aggiornato la propria policy per meglio aderire all’uso che gli utenti fanno del servizio e per adeguarsi alle pressioni di autorità sempre più allarmate. Le istituzioni si profondono quotidianamente in moniti e raccomandazioni: se convertiti in legge, potrebbero costringere gli intermediari della rete a vigilare sull’inesauribile flusso di contenuti che scorre sui loro server.

Gaia Bottà

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
18 nov 2008
Link copiato negli appunti