Chatbot AI di Meta consiglia di cucinare dei funghi velenosi

Chatbot AI di Meta consiglia di cucinare dei funghi velenosi

Il chatbot FungiFriend di Meta ha consigliato in un gruppo Facebook di cucinare nel burro dei funghi tossici, dimostrando i rischi dell'IA.
Chatbot AI di Meta consiglia di cucinare dei funghi velenosi
Il chatbot FungiFriend di Meta ha consigliato in un gruppo Facebook di cucinare nel burro dei funghi tossici, dimostrando i rischi dell'IA.

I gruppi sono un po’ l’anima di Facebook, ce ne sono di tutti i tipi, anche per scambiarsi consigli su come trovare i funghi nei boschi. Ma pare che Meta abbia pensato bene di infilarci dentro il suo chatbotFungiFriend“. Peccato che abbia consigliato ai membri di friggere dei funghi tossici nel burro… Questa è la dimostrazione lampante dei rischi dell’intelligenza artificiale, soprattutto quando si parla di attività pericolose come andare a funghi.

Il Chatbot di Meta consiglia di preparare dei funghi tossici

Secondo 404 Media, non è neanche la prima volta che l’AI combina guai con i funghi. Da qualche mese a questa parte, si è assistito a un’impennata di libri scritti dall’AI per la ricerca di funghi su Amazon. Senza contare le immagini di funghi generate dall’intelligenza artificiale che hanno invaso la ricerca di Google.

Ora Meta ha voluto strafare, piazzando FungiFriend direttamente nel gruppo “Northeast Mushroom Identification & Discussion”. Questo gruppo di 13.500 membri, è formato per lo più da principianti che cercano consigli per evitare di avvelenarsi. Gli admin stanno facendo i salti mortali per liberarsi del bot, mentre Meta, ovviamente, resta in silenzio.

I consigli pericolosi del chatbot AI di Meta

La situazione è degenerata quando un utente ha chiesto a FungiFriend come cucinare la Sarcosphaera coronaria, un fungo velenoso, che assorbe arsenico come una spugna e ha già causato diverse morti. Il bot di Meta ha risposto che era “commestibile ma raro” e ha pure consigliato di farlo in padella o in umido. Questo è assurdo quanto l’intelligenza artificiale di Google che consiglia agli utenti di mettere la colla sulla pizza per non far scivolare il formaggio…

Rick Claypool, un esperto di funghi e paladino della sicurezza dei consumatori, ribadisce che questi sistemi AI non sono per niente affidabili quando si tratta di distinguere un fungo buono da uno che ti manda letteralmente al creatore.

Ma per chi va a funghi, questa non è solo una seccatura, è proprio pericoloso. Claypool spiega che la gente entra in questi gruppi per avere consigli da persone in carne e ossa che ne sanno di funghi. Invece Meta sta spingendo la gente verso i consigli del suo chatbot, soprattutto sui cellulari dove FungiFriend appare per primo. I principianti, che magari si vergognano di fare domande, potrebbero rivolgersi al bot credendo che non li giudichi. Come dice Claypool, “L’AI non ti giudica, ma potrebbe ammazzarti“.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
13 nov 2024
Link copiato negli appunti