Gli Stati Uniti mirano a una Internet e a un sistema mediatico più morigerati, che non offendano gli animi più sensibili: il presidente Bush ha convertito in legge una proposta che investirà la Federal Communication Commission della responsabilità di mappare il panorama dei sistemi censori a favore dei minori. Ma se anche il sondaggio non dovesse tramutarsi in una scena mediatica epurata da immoralità e nefandezze, gli intermediari della rete sono già all’opera per ripulire i contenitori che chiedono ai netizen di riempire.
I bambini devono poter ingurgitare gli stimoli mediati dalla TV e dalla rete senza il pericolo di imbattersi in contenuti inadatti alla loro età: per questo motivo nei mesi scorsi il senatore Pryor ha portato avanti il Child Safe Viewing Act , una proposta di legge con la quale incaricare la FCC di stilare un report dettagliato di tutte le tecnologie capaci di filtrare quanto potrebbe turbare i minori. I fanciulli ruminano i contenuti e risputano comportamenti direttamente correlati a ciò che vedono, spiegava il senatore, le tecnologie sono abbastanza avanzate per pensare a sistemi censori mirati e multipiattaforma: per questo motivo Bush ha apposto il sigillo alla legge e ha dato il via ai lavori presso la FCC.
Sono in molti a temere che la legge e le dinamiche che si innescheranno presso l’Authority possano sfociare in una regolamentazione della rete incapace di bilanciare i diritti dei cittadini adulti con la protezione dei minori, influendo sulla libertà di espressione e sulla libertà di fruire di contenuti pienamente legali. Ma laddove non arrivi il parental control di stato , arrivano i gestori delle piattaforme di condivisione: sotto la pressione combinata della sfera politica internazionale e degli allarmismi dei media tradizionali, YouTube adegua le regole che governano i contenuti che popolano il servizio di sharing.
Non solo i contenuti violenti , non solo i contenuti che incitino alla violenza e all’odio : YouTube si è dotato di soluzioni per espellere il porno e tutto quanto vi alluda . YouTube è per tutti, ricordano dal blog ufficiale, e tutti devono contribuire a esercitare un controllo sociale per mantenerlo tale. A fare la prima mossa è il team che si occupa di gestire il portalone: sono state stilate nuove e più stringenti regole per definire ciò che è allusivo al sesso. Se i contenuti esplicitamente pornografici vengono rimossi non appena un utente provveda a segnalarli, esiste un’area grigia di contenuti che ammiccano alla pornografia senza poter essere considerati pornografici: si tratta di contenuti che vengono ora etichettati come inadatti ai minori , occultati da un clic agli occhi del pubblico più giovane.
Le sfumature di grigio che caratterizzano questi contenuti sessualmente allusivi sono definite da nuove regole : la community dovrà mobilitarsi per segnalare come inadatti ai minori i video in cui compaiano immagini di nudo, un nudo costituito da “genitali esposti o parzialmente coperti, natiche o seni, così come vestiti trasparenti”. Lo stesso vale per i video che siano mirati a “sollecitare una reazione di tipo sessuale”, o alle clip che risultino dalla combinazione di genitali o parti del corpo “sensibili” utilizzate come “punto focale”, di “ambientazioni sessualmente allusive” come una camera da letto, di posture che “stimolino sessualmente il pubblico”, di “azioni che preludano all’attività sessuale” e di protagonisti scollacciati.
Oltre ad invitare la community a segnalarne la presenza, oltre ad invitare la community a non affidarsi alle etichette attribuite da coloro che li postano in violazione delle regole, in modo da garantire l’effettiva corrispondenza tra video e classificazione, a questo tipo di contenuti verrà attribuita la minima visibilità : YouTube ha approntato algoritmi per rimuoverli automaticamente dalle classifiche dei video più visti e dei video preferiti. Non sarà inoltre più concesso agli utenti di agganciare il pubblico con ami a sfondo sessuale : le immagini di anteprima da attribuire ai video non verranno catturate ad intervalli prestabiliti, ma verranno pescate alla rinfusa fra i fotogrammi, in modo da scoraggiare thumbnail ingannevoli e provocatorie. Si tratta di immagini che contrastano con le iniziative in cui la grande G investe per dare lustro al portalone, si tratta di clip che, affiancate a quelle postate dagli investitori che iniziano a popolare YouTube, potrebbero trasmettere messaggi dissonanti.
È proprio questo il motivo per cui anche Ning, metapiattaforma di social networking, ha meditato di espellere la pornografia dalla proprie pagine. Nei mesi scorsi i vertici dell’azienda avevano chiarito che la coesistenza di contenuti pornografici legali e di contenuti ordinari non avrebbe creato alcun problema, ora, la marcia indietro . Ning continua a credere nella “libertà per gli utenti di creare la propria rete sociale incentrata su qualsiasi cosa, a patto che sia legale”, ma nel contempo si ammette che dare spazio a social network per soli adulti sia privo di senso in termini commerciali e di gestione . Agli inserzionisti non piacciono i contenuti pornografici e le reti sociali non sanno raggranellare abbastanza pubblicità per sostenersi. Le community di pornomani recano inoltre con sé fenomeni che ricadono nell’illegalità: spesso vengono postati contenuti che violano il diritto d’autore, spesso la proliferazione di reti sociali dedicate alla pornografia legale spinge alla fioritura di community che varcano il confine tra il sesso nelle sue forme legali e il sesso punito dalla legge. Un confine che appare ancora tutto da definire .
Gaia Bottà