Disinformazione, misinformazione e teorie del complotto possono essere messe al bando anche ricorrendo all’impiego degli algoritmi: lo sta dimostrando YouTube, che con l’adozione di un sistema IA istruito appositamente inizia a ottenere i risultati sperati. La conferma in uno studio condotto dalla University of California Berkeley.
YouTube: IA contro le teorie del complotto
Nel gennaio dello scorso anno la piattaforma ha annunciato un giro di vite che è andato a concretizzarsi poi nei mesi successivi con l’adozione di alcune misure ad hoc: meno contenuti “borderline” tra i suggerimenti che compaiono durante o al termine della visione dei filmati in streaming. Oggi, secondo i ricercatori, il numero si è ridotto in media del 40%.
L’analisi ha preso in esame 8 milioni di clip consigliate in un periodo di 15 mesi. Anche la valutazione è stata effettuata a sua volta da un algoritmo, creato da Berkeley al fine di stabilire se un video è da etichettare come complottista o meno in base a descrizione, commenti e trascrizione del flusso audio.
L’azione di YouTube è risultata essere più efficace per contrastare contenuti fuorvianti in merito al governo americano, agli attacchi terroristici dell’11 settembre e sul terrapiattismo. C’è invece ancora da lavorare su altri fronti: non sembrano risentire delle misure introdotte i filmati che parlano ad esempio di alieni intenti a costruire piramidi e, in modo ancor più preoccupante, quelli che negano i cambiamenti climatici.
Considerando come la piattaforma registri ogni mese quasi due miliardi di utenti attivi può essere a tutti gli effetti considerata come una fonte di informazione che è necessario mettere al riparo da distorsioni potenzialmente dannose.