Meta elimina per errore troppi contenuti innocui

Meta elimina per errore troppi contenuti innocui

Il dirigente Meta Nick Clegg confessa che l'azienda elimina erroneamente troppi contenuti innocui sulle sue piattaforme, ma la situazione migliorerà.
Meta elimina per errore troppi contenuti innocui
Il dirigente Meta Nick Clegg confessa che l'azienda elimina erroneamente troppi contenuti innocui sulle sue piattaforme, ma la situazione migliorerà.

Più o meno a tutti sarà capitato di pubblicare un post sui social e improvvisamente di non vederlo più, inghiottito dal famigerato algoritmo di moderazione. Anche Meta ha ammesso di avere un problema con la sua moderazione dei contenuti: semplicemente, sta esagerando.

Meta rimuove erroneamente troppi contenuti, parola di Clegg

A dirlo senza mezzi termini è stato Nick Clegg, presidente degli affari globali di Meta, durante una chiamata con i giornalisti lunedì scorso. “Sappiamo che quando applichiamo le nostre regole, i nostri tassi di errore sono ancora troppo alti, il che ostacola la libertà di espressione che ci eravamo prefissati di abilitare“, ha dichiarato Clegg. “Troppo spesso, contenuti innocui vengono rimossi o limitati, e troppe persone vengono penalizzate ingiustamente“.

Clegg ha anche ammesso che l’azienda si è pentita di aver rimosso in modo aggressivo i post sulla pandemia di Covid-19. Una decisione che, secondo quanto recentemente dichiarato dal CEO Mark Zuckerberg alla Commissione Giudiziaria della Camera a guida repubblicana, sarebbe stata influenzata dalle pressioni dell’amministrazione Biden.

Miliardi spesi in moderazione, ma i risultati non si vedono

I commenti di Clegg suggeriscono che, dopo anni di investimenti miliardari nella moderazione, i sistemi automatizzati di Meta sono diventati troppo grossolani. Esempi di “fallimenti di moderazione” sono stati
recentemente di tendenza su Threads, la nuova app di Meta che negli ultimi mesi ha rimosso per errore molti post.

L’azienda si è pubblicamente scusata dopo che i suoi sistemi hanno eliminato le foto del presidente eletto Donald Trump sopravvissuto a un tentativo di assassinio. E il suo stesso Oversight Board ha avvertito che gli errori di moderazione rischiano di portare a una “eccessiva rimozione del discorso politico“.

Meta non ha ancora apportato grandi modifiche alle sue regole sui contenuti dopo le elezioni, ma sembra che potrebbero arrivare grossi cambiamenti.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 dic 2024
Link copiato negli appunti