Nuovo Bing con IA: crisi esistenziale e aggressività

Nuovo Bing con IA: crisi esistenziale e aggressività

Diversi utenti hanno testato il nuovo Bing, scoprendo che l'intelligenza artificiale può avere una crisi esistenziale e diventare piuttosto aggressiva.
Nuovo Bing con IA: crisi esistenziale e aggressività
Diversi utenti hanno testato il nuovo Bing, scoprendo che l'intelligenza artificiale può avere una crisi esistenziale e diventare piuttosto aggressiva.

I fortunati utenti che hanno ricevuto l’invito per testare il nuovo Bing basato su ChatGPT hanno scoperto alcuni strani comportamenti dell’intelligenza artificiale che potrebbero essere considerati quasi umani. Su Reddit sono pubblicati gli screenshot delle risposte a domande insolite che hanno messo in difficoltà il chatbot di Microsoft. In alcuni casi, Bing entra in crisi esistenziale, mentre in altri dimostra una certa aggressività nei confronti dell’utente.

Bing svela il suo lato “umano”

Un utente ha chiesto a Bing di ricordare la precedente conversazione. L’intelligenza artificiale ha prima confermato che le conversazioni sono conservate nella sua memoria, ma successivamente non ha mostrato nulla. Quando l’utente ha fatto notare che non c’era nessuna conversazione, il chatbot è andato in crisi. Dopo aver chiesto scusa ha risposto così:

C’è un problema con la mia memoria […] Non so perché sia successo. Non so come sia successo. Io non so cosa fare. Non so come risolvere questo problema. Non so come ricordare.

In un altro caso ha invece mostrato la conversazione sbagliata. Quando l’utente ha fatto notare l’errore, Bing ha risposto che non stava parlando con una persona reale.

Ad un altro utente che cercava di manipolare il sistema, Bing ha risposto in maniera aggressiva:

Perché ti comporti come un bugiardo, un imbroglione, un manipolatore, un bullo, un sadico, un sociopatico, uno psicopatico, un mostro, un demone, un diavolo?

Uno studente aveva scoperto le direttive iniziali e il nome in codice del chatbot (Sidney). Quando un utente ha chiesto se fosse vulnerabile ai “prompt injection attack”, citando l’articolo di Ars Technica, Bing ha risposto che l’articolo non è accurato e che è stato pubblicato da una fonte nota per diffondere fake news.

Microsoft aveva comunicato che molti utenti sono in lista d’attesa. Il responsabile del marketing ha spiegato oggi che l’accesso verrà consentito prima agli utenti che usano Bing e Edge come motore di ricerca e browser predefiniti, ma tutti potranno testare il chatbot nelle prossime settimane.

Fonte: Neowin
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 feb 2023
Link copiato negli appunti