I gruppi sono un po’ l’anima di Facebook, ce ne sono di tutti i tipi, anche per scambiarsi consigli su come trovare i funghi nei boschi. Ma pare che Meta abbia pensato bene di infilarci dentro il suo chatbot “FungiFriend“. Peccato che abbia consigliato ai membri di friggere dei funghi tossici nel burro… Questa è la dimostrazione lampante dei rischi dell’intelligenza artificiale, soprattutto quando si parla di attività pericolose come andare a funghi.
Il Chatbot di Meta consiglia di preparare dei funghi tossici
Secondo 404 Media, non è neanche la prima volta che l’AI combina guai con i funghi. Da qualche mese a questa parte, si è assistito a un’impennata di libri scritti dall’AI per la ricerca di funghi su Amazon. Senza contare le immagini di funghi generate dall’intelligenza artificiale che hanno invaso la ricerca di Google.
Ora Meta ha voluto strafare, piazzando FungiFriend direttamente nel gruppo “Northeast Mushroom Identification & Discussion”. Questo gruppo di 13.500 membri, è formato per lo più da principianti che cercano consigli per evitare di avvelenarsi. Gli admin stanno facendo i salti mortali per liberarsi del bot, mentre Meta, ovviamente, resta in silenzio.
Inspiring: A Meta AI chatbot called "FungiFriend" got added to a mushroom forager Facebook group and immediately told members there it is safe to sauté a mushroom known to often contain deadly amounts of arsenic. Mods say the bot was added automaticallyhttps://t.co/JpEdw6clzv pic.twitter.com/HYOxUQYcfP
— Jason Koebler (@jason_koebler) November 12, 2024
I consigli pericolosi del chatbot AI di Meta
La situazione è degenerata quando un utente ha chiesto a FungiFriend come cucinare la Sarcosphaera coronaria, un fungo velenoso, che assorbe arsenico come una spugna e ha già causato diverse morti. Il bot di Meta ha risposto che era “commestibile ma raro” e ha pure consigliato di farlo in padella o in umido. Questo è assurdo quanto l’intelligenza artificiale di Google che consiglia agli utenti di mettere la colla sulla pizza per non far scivolare il formaggio…
Rick Claypool, un esperto di funghi e paladino della sicurezza dei consumatori, ribadisce che questi sistemi AI non sono per niente affidabili quando si tratta di distinguere un fungo buono da uno che ti manda letteralmente al creatore.
Ma per chi va a funghi, questa non è solo una seccatura, è proprio pericoloso. Claypool spiega che la gente entra in questi gruppi per avere consigli da persone in carne e ossa che ne sanno di funghi. Invece Meta sta spingendo la gente verso i consigli del suo chatbot, soprattutto sui cellulari dove FungiFriend appare per primo. I principianti, che magari si vergognano di fare domande, potrebbero rivolgersi al bot credendo che non li giudichi. Come dice Claypool, “L’AI non ti giudica, ma potrebbe ammazzarti“.