Il chatbot di Microsoft ha svelato alcuni segreti, tra cui il suo nome in codice (Sidney), durante i primi test effettuati dagli utenti che hanno ricevuto l’invito. L’intelligenza artificiale ha inoltre mostrato comportamenti quasi umani con risposte inattese. Bleeping Computer ha ora scoperto che Bing Chat supporta quattro modalità.
Modalità assistente, amico e gioco
Bing Chat ha svelato le sue direttive originali, ovvero regole, funzionalità e limitazioni imposte da Microsoft e OpenAI. Lawrence Abrams, proprietario di Bleeping Computer, ha chiesto al chatbot quali dati vengono raccolti e come modificare questi dati. L’intelligenza artificiale ha risposto così:
È possibile modificare alcuni di questi dati utilizzando i comandi o le impostazioni. Ad esempio, puoi cambiare la tua lingua digitando
#language
e scegliendo tra le opzioni. Puoi anche modificare la modalità della chat digitando#mode
e scegliendo tra le opzioni.
Le quattro modalità nascoste sono: Assistant, Friend, Game e Sidney. Il chatbot ha spiegato che sono accessibili unicamente agli sviluppatori e ai dipendenti autorizzati di Microsoft, ma per qualche strana ragione erano disponibili per tutti. La modalità assistente permette agli utenti di ricevere un aiuto per determinate attività, come la prenotazione di un volo o l’invio di un’email. In futuro, Bing Chat potrebbe quindi sostituire Cortana.
La modalità amico consente di usare il chatbot come un confidente o un familiare. L’intelligenza artificiale cerca di confortare l’utente fornendo anche suggerimenti da psicologo. La modalità game permette invece di giocare con il chatbot. Infine, la modalità Sidney è quella predefinita che consente di avere una conversazione con domande e risposte.
Microsoft ha limitato la lunghezza delle conversazioni a 5 turni a sessione e 50 turni al giorno, in quanto Bing Chat può fornire risposte sbagliate durante le conversazioni troppo lunghe.