In una serie di post su Threads, il capo di Instagram Adam Mosseri ha messo in guardia gli utenti sui contenuti che vedono online. Secondo lui, l’intelligenza artificiale sta chiaramente producendo immagini che possono essere facilmente scambiate per reali. Per questo motivo, Mosseri invita a considerare sempre la fonte prima di credere a ciò che si vede sui social media.
Oggi, grazie ai generatori di immagini AI, creare un’immagine che sembra reale, ma che in realtà è assolutamente falsa, è diventato estremamente facile e accessibile a chiunque.
Instagram: diffidare dalle immagini AI, servono più contesto e trasparenza
Mosseri afferma che il compito delle piattaforme Internet è quello di etichettare il più possibile i contenuti prodotti dall’AI. In questo modo gli utenti sanno che si tratta di contenuto creato dall’intelligenza artificiale e non da esseri umani. Ammette però che alcuni contenuti sfuggiranno inevitabilmente a queste etichette.
Proprio per questo, oltre all’etichettatura, le piattaforme dovrebbero fornire agli utenti più contesto e informazioni su chi condivide quel contenuto AI (per esempio l’account che lo ha pubblicato). In questo modo gli utenti possono farsi un’idea più chiara di quanto considerare affidabile quel contenuto, anche se non direttamente etichettato come creato da AI.
Così come bisogna ricordare che i chatbot mentiranno senza problemi se necessario. Quindi bisogna essere cauti prima di credere ciecamente alle informazioni fornite da motori di ricerca alimentati dall’AI come Perplexity AI o ChatGPT Search. Al momento, le piattaforme di Meta non offrono molto del tipo di contesto di cui ha parlato Mosseri, anche se l’azienda ha recentemente accennato a grandi cambiamenti in arrivo nelle sue regole sui contenuti.
Verso una moderazione guidata dagli utenti?
Quello che descrive Mosseri sembra più simile alla moderazione guidata dagli utenti, come Community Notes su X e YouTube o i filtri di moderazione personalizzati di Bluesky. Non si sa se Meta abbia intenzione di introdurre qualcosa del genere, ma in passato ha già preso spunto da Bluesky.