Un utente di ChatGPT ha denunciato che il chatbot di OpenAI stava mostrando conversazioni private e non pertinenti, tra cui ticket di assistenza di una farmacia e frammenti di codice con credenziali di accesso a vari siti web. La notizia è stata riportata da Ars Technica, che ha ricevuto le prove dallo stesso utente.
La scoperta di Chase Whiteside
L’utente in questione si chiama Chase Whiteside. Ha raccontato ad Ars Technica che stava usando ChatGPT per cercare “nomi intelligenti per i colori di una tavolozza”. Dopo aver lasciato la schermata per un momento, al suo ritorno ha trovato sul lato sinistro della pagina diverse conversazioni che non aveva avviato.
Tra queste, una sembrava contenere dei ticket di assistenza di un portale di farmacie, con date che andavano dal 2020 al 2021, prima che ChatGPT fosse lanciato. Un’altra mostrava un pezzo di codice PHP con le credenziali di accesso a un sito web. Altre conversazioni erano scambi di presentazioni o richieste di informazioni.
La risposta di OpenAI
OpenAI ha reagito alla notizia sostenendo che si tratta di un caso di frode e non di un malfunzionamento di ChatGPT. Un portavoce dell’azienda ha dichiarato ad Ars Technica che le credenziali di accesso all’account dell’utente sono state compromesse e che un hacker ha usato l’account per avviare le conversazioni. Quindi, non si tratterebbe di ChatGPT che mostra la cronologia di un altro utente, ma di conversazioni derivanti dall’uso improprio di quell’account.
Il problema dei dati di addestramento
Questa non è la prima volta che ChatGPT viene accusato di rivelare dati sensibili o privati. Il chatbot si basa su un modello linguistico di grandi dimensioni (LLM) che è stato addestrato con enormi quantità di dati provenienti da diverse fonti, tra cui dati medici e altre informazioni personali. Questo ha portato a una causa legale collettiva contro OpenAI, che è stata accusata di usare questi dati in modo segreto e illegale.
In passato ChatGPT ha mostrato vulnerabilità che consentivano l’accesso non autorizzato ai suoi dati di addestramento. A marzo 2023 OpenAI ha riconosciuto un bug per cui il chatbot mostrava ad alcuni utenti conversazioni altrui. A dicembre dello stesso anno l’azienda ha rilasciato una patch per risolvere un problema che esponeva i dati degli utenti a terze parti non autorizzate.
Infine, alla fine del 2023 i ricercatori di Google hanno scoperto che attraverso parole chiave specifiche, denominate “Attack”, era possibile indurre ChatGPT a rivelare ampie porzioni dei suoi dati di addestramento, incluse informazioni sensibili o private.
I rischi per la privacy quando si usa l’AI
Questo episodio ci ricorda l’importanza della sicurezza quando si usano programmi basati sull’intelligenza artificiale, come ChatGPT. Non si può mai essere sicuri di cosa possano rivelare o a chi possano mostrare i nostri dati. Per questo, è bene seguire il vecchio adagio: non inserire in ChatGPT, o in qualsiasi altro programma, nulla che non vorresti far vedere a un estraneo.