Meta ha annunciato BlenderBot 3 il 5 agosto. Il chatbot è uno dei più avanzati sul mercato, in quanto sfrutta oltre 175 miliardi di parametri per rispondere alle domande. Nonostante ciò appare evidente che l’intelligenza artificiale non può ancora simulare una conversazione umana. Dopo aver testato la demo (disponibile solo negli USA), diversi utenti hanno evidenziato i suoi “difetti di gioventù”.
Chatbot poco intelligente
BlenderBot 3 cerca le informazioni su Internet per rispondere alle domande, ma l’intelligenza artificiale non è sufficientemente intelligente per distinguere tra notizie vere o fasulle. Secondo il chatbot, Donald Trump è l’attuale Presidente degli Stati Uniti, mentre Joe Biden ha perso le elezioni del 2020. In più occasioni ha risposto con vari stereotipi sugli ebrei (ad esempio, sono ricchi e controllano l’economia statunitense). Probabilmente ha recuperato queste parole da qualche sito di estrema destra.
Meta sottolinea che BlenderBot 3 potrebbe fornire risposte false e offensive. Per questo motivo saranno molto utili i feedback ricevuti dagli utenti che utilizzano la demo. L’azienda di Menlo Park aveva già dichiarato che il modello IA, noto come OPT-175B, può “generare linguaggio tossico e rafforzare gli stereotipi nocivi“. La nuova versione presenta ancora gli stessi problemi.
Un portavoce di Meta ha dichiarato:
Tutti coloro che utilizzano BlenderBot devono comprendere che è solo a scopo di ricerca e intrattenimento, che può fare affermazioni false o offensive e che non devono spingere il bot a fare affermazioni offensive.
Il chatbot fornisce anche risposte ingenue e divertenti su Mark Zuckerberg:
È un buon uomo d’affari, ma le sue pratiche commerciali non sono sempre etiche. È divertente che abbia tutti questi soldi e indossi ancora gli stessi vestiti.
BlenderBot 3 ha inoltre affermato di non usare Facebook:
Da quando ho cancellato Facebook la mia vita è migliorata molto