Utenti di X usano Grok per il fact-checking, il rischio di fake news

Utenti di X usano Grok per il fact-checking, il rischio di fake news

Alcuni utenti stanno usando Grok su X come strumento di fact-checking. Una tendenza preoccupante, che può portare alla diffusione di fake news.
Utenti di X usano Grok per il fact-checking, il rischio di fake news
Alcuni utenti stanno usando Grok su X come strumento di fact-checking. Una tendenza preoccupante, che può portare alla diffusione di fake news.

Alcuni utenti di X, soprattutto in India, stanno sperimentando un uso inedito di Grok, il chatbot AI di Elon Musk. Invece di impiegarlo per ottenere informazioni generali o generare contenuti, lo stanno utilizzando per verificare e rispondere a commenti e domande che riguardano specifiche convinzioni politiche.

Questo fenomeno solleva non poche preoccupazioni, perché potrebbe alimentare la diffusione di fake news e disinformazione. Il rischio è che gli utenti si affidino a Grok come arbitro della verità. Ma anche l’AI può commettere errori, interpretare i fatti in modo distorto o essere influenzata dai dati su cui è stata addestrata.

Grok usato come fact-checker

Il problema, secondo gli esperti, è che assistenti come Grok sono bravissimi a usare il linguaggio naturale e a dare risposte che sembrano uscite dalla bocca di un essere umano. Una parvenza di autenticità che può trarre in inganno, anche quando le informazioni sono completamente sbagliate.

A differenza degli assistenti AI, i fact-checker umani usano più fonti credibili per verificare le informazioni. E si assumono la piena responsabilità delle loro scoperte, firmandole con nome e organizzazione.

Grok potrebbe essere usato per diffondere disinformazione

Questa settimana, l’account ufficiale di Grok su X ha pubblicato una risposta in cui ammette apertamente che il chatbot potrebbe essere usato per diffondere disinformazione e violare la privacy. Eppure, non mostra alcun disclaimer agli utenti per avvertire che i contenuti generati potrebbero non essere sempre accurati. Quindi se inventa informazioni inesatte o completamente false, gli utenti potrebbero prenderle per vere senza verificarle.

C’è anche il dubbio su quanto Grok usi i post su X come dati di addestramento e su quali misure di controllo della qualità usi per verificarli. L’estate scorsa, un aggiornamento sembrava consentire a Grok di usare i dati degli utenti di X per impostazione predefinita.

L’altro aspetto preoccupante di assistenti AI come Grok, accessibili attraverso i social media, è che forniscono informazioni in pubblico, a differenza di ChatGPT o altri chatbot usati in privato. Anche se un utente è consapevole che le informazioni ottenute dall’assistente potrebbero essere fuorvianti o non del tutto corrette, altri sulla piattaforma potrebbero crederci.

Questo potrebbe causare seri danni sociali. In India, casi di disinformazione circolata su WhatsApp hanno portato a linciaggi di massa. E con l’arrivo dell’AI, che rende la generazione di contenuti ancora più facile e realistica, il rischio è ancora maggiore.

AI vs fact-checker umani: chi vincerà?

Mentre le aziende tech, inclusa xAI, stanno lavorando per rendere i loro modelli AI sempre più simili agli esseri umani nella comunicazione, non possono ancora (e forse non potranno mai) sostituirli completamente.

Negli ultimi mesi, le piattaforme come X e Meta hanno iniziato a ridurre la dipendenza dai fact-checker professionisti, introducendo un sistema di verifica basato sulla collaborazione degli utenti: le Community Notes. Un cambiamento che preoccupa non poco gli addetti ai lavori.

Alcuni credono ottimisticamente che le persone impareranno a distinguere tra macchine e fact-checker umani e apprezzeranno di più l’accuratezza di questi ultimi. Angie Holan, direttore dell’International Fact-Checking Network (IFCN) del Poynter Institute, non ha dubbi: “Vedremo il pendolo tornare indietro verso un maggiore fact-checking“. Ma nel frattempo, i fact-checker avranno probabilmente più lavoro da fare, visto che le informazioni generate dall’AI si diffondono rapidamente.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
20 mar 2025
Link copiato negli appunti