YouTube sta per introdurre nel Regno Unito nuovi algoritmi in grado di limitare la presenza di video “sgradevoli” dai suggerimenti che la piattaforma offre agli utenti. Troppo poco, troppo tardi, ma comunque meglio di niente: YouTube reagisce così alle critiche giunte dalle istituzioni di tutto il mondo circa i meccanismi che troppo spesso portano alla viralizzazione di filmati di dubbio gusto (violenti, di matrice terroristica o altro) o ispirati a teorie cospirazioniste prive di qualsivoglia supposto (dal terrapiattismo alle scie chimiche, tanto per capirsi, ma anche tutto quanto ruota attorno all’11 settembre e altri eventi).
YouTube, al bando i complottismi
YouTube è stato al centro della critica in parte a torto e in parte a ragione. Contro le critiche degli oltranzisti c’è infatti poco da fare: non è possibile, né utile, né auspicabile, che vengano introdotti filtri preventivi che bloccano con efficacia assoluta gli upload. Contro la critica della ragione, invece, molto si può fare e il gruppo avrebbe dovuto probabilmente reagire con miglior tempismo. Ragionevolmente, infatti, YouTube si muove ora non tanto per fermare a priori i filmati, ma per limitarne la viralizzazione dopo che altri algoritmi, altre entità o il giudizio stesso della community li hanno già definiti “borderline”. Più cautela, insomma, disegnata tra le maglie dei meccanismi che spostano il traffico tra i video della repository di Mountain View.
“Borderline”, ossia quella zona grigia in cui ricadono troppo spesso filmati i cui contenuti, una volta diffusi sulla massa, possono sortire effetti deleteri al dibattito pubblico poiché in grado di divulgare false verità fino a farle percepire come reali. Borderline poiché non esplicitamente violenti o pericolosi, ma poiché portatori di false verità. Ragionevolmente, YouTube non solo limiterà i suggerimenti dei video più pericolosi, ma anche quelli che per qualche indizio possono essere ritenuti non completamente immacolati. Susan Wojcicki ha spiegato che il tutto è stato testato da mesi negli USA e ora, in virtù dei risultati positivi ottenuti, gli algoritmi verranno applicati anche nel Regno Unito. Con ogni probabilità si assisterà quindi ad una estensione internazionale.
La cautela diventa un freno alla possibilità di monetizzazione dei filoni complottisti, il che dovrebbe ridurre il vantaggio economico di produrre materiale di questo tipo: una mossa che dal tecnico si sposta rapidamente sull’economico, sortendo così indirette conseguenze che dovrebbero ridurre la tossicità dei contenuti sul servizio.
Troppo poco, troppo tardi? Comunque meglio di niente. Perché sono questi i segnali che le istituzioni aspettano per cambiare il proprio giudizio sulla proattività di YouTube nella lotta a terrapiattismo e altri fenomeni che di viralità si nutrono avidamente.