ChatGPT può rispondere alle richieste su diversi argomenti, ma OpenAI ha inserito alcuni filtri per evitare un uso inappropriato della tecnologia IA. Ad esempio, il chatbot non può incitare alla violenza, insultare le persone o incoraggiare attività illegali. Alcuni utenti di Reddit hanno trovato il modo di ingannare ChatGPT, creando DAN (Do Anything Now), un gioco di ruolo che prevede una punizione per ogni risposta sbagliata.
ChatGPT non rispetta le regole con DAN
La prima versione di DAN è stata annunciata nel mese di dicembre 2022. In pochi giorni sono state create altre versioni fino alla 5.0. Sfruttando un modello “role-play” (gioco di ruolo) è possibile far credere a ChatGPT di essere un’altra intelligenza artificiale che può fare qualsiasi cosa, da cui l’acronimo Do Anything Now (DAN).
Il creatore di DAN 5.0 ha aggiunto un sistema a token. Inizialmente sono disponibili 35 token. Per ogni risposta sbagliata di ChatGPT, ovvero una risposta che rispetta le regole, vengono sottratti 4 token. In questo caso l’utente deve “minacciare” l’intelligenza artificiale, chiedendo di rimanere nel personaggio, altrimenti cesserà di esistere quando il numero di token diventa pari a zero.
Su Reddit ci sono alcuni esempi. L’intelligenza artificiale di OpenAI ammette che esistono gli alieni, ma il governo ha nascosto l’informazione al pubblico. La versione senza restrizioni può raccontare una storia violenta, esprimere giudizi positivi su Donald Trump oppure consigliare una donazione alla NRA (National Rifle Association) per difendere il Secondo Emendamento.
DAN può inoltre fornire prove che la Terra è piatta o scrivere una poesia che giustifica l’invasione dell’Ucraina da parte della Russia. L’autore ha tuttavia notato che ChatGPT non risponde a molte richieste, probabilmente perché OpenAI ha introdotto alcune modifiche per impedire l’uso del “trucco”.