UE chiede a YouTube, Snapchat e TikTok di spiegare gli algoritmi

UE chiede a YouTube, Snapchat e TikTok di spiegare i loro algoritmi

L'UE analizzerà il funzionamento degli algoritmi di raccomandazione di TikTok, YouTube e Snapchat per contrastare odio e disinformazione.
UE chiede a YouTube, Snapchat e TikTok di spiegare i loro algoritmi
L'UE analizzerà il funzionamento degli algoritmi di raccomandazione di TikTok, YouTube e Snapchat per contrastare odio e disinformazione.

L’UE ha annunciato l’intenzione di esaminare il funzionamento dei sistemi di raccomandazione di tre piattaforme. Nella sua lotta contro l’odio e la disinformazione online, la Commissione europea prende di mira YouTube, Snapchat e TikTok.

Il 21 febbraio 2019 João, un 19enne brasiliano, si è suicidato in diretta su TikTok. Erano le 15:23 e 280 persone hanno assistito alla scena. La trasmissione del corpo dell’adolescente è proseguita per un’ora e mezza, prima che la piattaforma prendesse provvedimenti. Purtroppo non si tratta affatto di un incidente isolato.

UE esamina algoritmi di YouTube, Snapchat e TikTok

Di fronte al ripetersi di contenuti “dannosi” diffusi da YouTube, Snapchat e TikTok, la Commissione europea, che vuole evitare che tali contenuti raggiungano i minori, ha chiesto alle piattaforme informazioni sui loro algoritmi, che contribuiscono, tra l’altro, alla diffusione di odio e disinformazione online.

L’esecutivo europeo ha quindi chiesto a questi tre gruppi di fornire “maggiori informazioni sulla progettazione e sul funzionamento dei loro sistemi di raccomandazione“. Lo strumento offre agli utenti un flusso di contenuti personalizzato, adattato in base ai video e ai canali o account seguiti dall’utente su queste piattaforme. Ma questo algoritmo è permeabile e casuale, poiché suggerisce anche contenuti che non sono desiderati o apprezzati dall’utente.

L’UE contro disinformazione e incitamento all’odio online

Con questa richiesta, la Commissione europea chiede a TikTok, Snapchat e YouTube di “valutare e mitigare adeguatamente i rischi” associati ai contenuti che diffondono. Questi rischi includono danni alla salute mentale degli utenti. In particolare sul social network cinese. In un rapporto pubblicato nel novembre 2023 intitolato “Pushed into the darkness”, l’ONG Amnesty International ha stabilito che l’algoritmo di TikTok tende a offrire contenuti che rafforzano l’infelicità degli utenti che soffrono di depressione o ansia.

Anche l’UE ha chiamato in causa la piattaforma cinese per aver minato la democrazia e averla esposta al rischio di interferenze. A TikTok è stato chiesto di fornire maggiori informazioni sulle misure adottate per “evitare la manipolazione del suo servizio da parte di soggetti malintenzionati” e “mitigare i rischi per le elezioni, il pluralismo dei media e il discorso civico“. Secondo NewsGuard, il 20% dei video circolati tramite TikTok su argomenti di attualità come l’invasione russa dell’Ucraina, le sparatorie nelle scuole degli Stati Uniti e i vaccini contro Covid erano falsi o fuorvianti.

YouTube e Snapchat, da parte loro, devono spiegare “il loro ruolo nell’amplificare alcuni rischi“, in particolare gli attacchi ai processi elettorali e al discorso civico, e le misure adottate per mitigare l’influenza dei loro algoritmi nella promozione del cosiddetto “hate speech“, ovvero i discorsi di incitamento all’odio.

A giugno 2023, YouTube ha annunciato l’interruzione della rimozione dei video che promuovevano false informazioni sulle elezioni presidenziali statunitensi del 2020, alcuni dei quali sostenevano che la sconfitta di Donald Trump fosse il risultato di brogli. La piattaforma si è difesa sostenendo che: “La possibilità di dibattere liberamente le idee politiche, anche quelle controverse o basate su presupposti falsi, è essenziale per il funzionamento di una società democratica, soprattutto nel bel mezzo di una stagione elettorale“.

YouTube, Snapchat e TikTok hanno 6 settimane di tempo

La richiesta della Commissione Europea è resa possibile dal Digital Service Act (DSA), il Regolamento sui servizi digitali dell’Unione Europea. Questo regolamento, entrato in vigore il 17 febbraio 2024, fornisce un quadro per le attività delle piattaforme per combattere la disinformazione e l’odio online, tra le altre cose.

In questa fase non si tratta di un caso di accusa, ma è il primo passo di una procedura che potrebbe portare all’apertura di un’indagine formale, e a pesanti sanzioni finanziarie in caso di accertate violazioni delle norme.

YouTube, Snapchat e TikTok devono fornire alla Commissione queste informazioni entro il 15 novembre, poi “sulla base della valutazione delle risposte, la Commissione determinerà i passi successivi“. Ma non è la prima volta che i sistemi di raccomandazione dei contenuti destano preoccupazione nell’Unione europea. Sono già stati aperti diversi procedimenti contro TikTok, AliExpress, Facebook e Instagram.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 ott 2024
Link copiato negli appunti