L’intelligenza artificiale che alimenta i chatbot devono affrontare una sfida continua: la tendenza a produrre “allucinazioni“, ovvero risposte errate o inappropriate. E l’assistente AI di Meta non fa eccezione. Quando gli è stato chiesto del tentato omicidio dell’ex presidente Donald Trump, infatti, ha erroneamente affermato che l’evento non è mai avvenuto…
Meta riconosce l’errore e lavora per migliorare l’AI
In un post sul blog dell’azienda, Joel Kaplan, responsabile globale delle politiche di Meta, ha definito “sfortunate” le risposte dell’intelligenza artificiale alle domande sulla sparatoria. Inizialmente, Meta AI era stata programmata per non rispondere a domande sull’attentato, ma questa restrizione è stata rimossa dopo che gli utenti hanno iniziato a notarla. Kaplan ha riconosciuto che, in alcuni casi, Meta AI ha continuato a fornire risposte errate, affermando talvolta che l’evento non è accaduto. L’azienda sta lavorando rapidamente per risolvere questo problema.
Le allucinazioni: una sfida continua per l’AI generativa
Kaplan ha sottolineato che le allucinazioni rappresentano un problema comune a tutti i sistemi di AI generativa, soprattutto quando si tratta di eventi in tempo reale. I modelli possono restituire risultati imprecisi o inappropriati, e Meta continuerà ad affrontare questi problemi e a migliorare le funzioni man mano che si evolveranno e che un maggior numero di persone condividerà il proprio feedback.
Anche Google ha le allucinazioni
Anche Google è stata coinvolta in una controversia simile, dovendo smentire le affermazioni secondo cui la sua funzione di completamento automatico della ricerca avrebbe censurato i risultati relativi all’attentato. L’ex presidente Trump ha accusato Meta e Big G di tentare di “truccare l’elezione”, invitando i suoi sostenitori a cercare informazioni su queste piattaforme.
L’AI generativa e la propensione alla falsità
Da quando ChatGPT è emerso, il settore tech si è interrogato su come limitare la tendenza all’invenzione di falsità insita nei modelli di intelligenza artificiale generativa. Alcune aziende come Meta hanno provato ad fondare i loro chatbot su dati di qualità e risultati di ricerca in tempo reale, per compensare la propensione all’invenzione. Tuttavia, come dimostra l’episodio di Trump, è ancora arduo superare ciò per cui i modelli linguistici sono stati concepiti: produrre contenuti inventati.