OpenAI ha lanciato una rivoluzione con ChatGPT e il modello di linguaggio GPT-3. Ora l’intelligenza artificiale sta arrivando ovunque, abbracciando ogni settore e rivelandosi una sorpresa dove normalmente le IA non avrebbero nulla da dire o fare. Ad esempio, ChatGPT può celebrare una messa. E perché no, anche programmare un robot per raccogliere pomodori.
Tutt’oggi ricercatori e utenti da tutto il mondo cercano nuovi metodi per sfruttare i chatbot e i modelli IA di ultima generazione, sperimentando il più possibile prima che in Europa prenda vita l’AI Act e giungano sempre più limiti per lo sviluppo di strumenti inediti, magari potenzialmente pericolosi. Parlando proprio di pericoli e rischi, cosa ci assicura oggi che ChatGPT e altri chatbot proteggano a dovere i nostri dati? Possiamo fidarci delle capacità di tali soluzioni? Forse no, ecco perché.
Non fidiamoci ciecamente di ChatGPT
La maggior parte degli utenti su Internet continua a usare i chatbot come se niente fosse, fidandosi del modo in cui trattano le informazioni da noi inserite durante una normale conversazione con l’intelligenza artificiale. Eppure, in Italia (e non solo) il campanello di allarme ha suonato più volte, costringendo la stessa OpenAI a intervenire con funzionalità pensate appositamente per la tutela della privacy degli utenti.
Prima di concedere alle persone la possibilità di disabilitare la cronologia della chat, impedendo che le conversazioni venissero utilizzate per migliorare e perfezionare il modello, come agiva OpenAI nei confronti dei dati inseriti? L’emblematico caso di Samsung ci ha insegnato che ogni informazione scritta come prompt veniva salvata nei server dell’azienda di Sam Altman, permettendo a ChatGPT di migliorare. Tra tali dati, tuttavia, possono apparire anche segreti commerciali, e alla organizzazione statunitense non importa: nel momento in cui si utilizza il chatbot, si aderisce ai termini di utilizzo del servizio e si accetta di rendere disponibili gli input per l’apprendimento automatico.
In sostanza, i messaggi di ChatGPT vengono trattati come qualsiasi parola o foto pubblicata online, eccetto per la notevole difficoltà nella loro rimozione. Per eliminare i propri dati da ChatGPT, infatti, bisogna compilare un apposito modulo e, come afferma l’organizzazione, questo provvedimento non assicurerà la cancellazione totale.
Comprendere i rischi dell’IA
Anche lo stesso CEO Sam Altman ha riconosciuto i rischi di ChatGPT: “È un errore fare affidamento sull’IA per qualcosa di importante. Abbiamo molto lavoro da fare su robustezza e veridicità”, ha dichiarato ancora nel dicembre 2022. Esistono ancora pericoli importanti, ma quali esattamente?
Anzitutto, c’è la possibilità che qualcuno riesca a sfruttare bug per intromettersi nei server di OpenAI e rubare i dati degli utenti. Ricordiamo, difatti, che nel marzo 2023 un problema tecnico di ChatGPT ha permesso ad alcune persone di accedere a conversazioni e informazioni di pagamento degli utenti di ChatGPT Plus. Come già affermato, poi, le chat vengono memorizzate in un server di “affidabili fornitori statunitensi”: cosa assicura l’affidabilità delle loro piattaforme? Peraltro, OpenAI rimuove le informazioni personali identificabili ma, prima di farlo, i dati entrano nella loro forma grezza nei server e possono essere intercettati dallo staff: rammentiamo che l’organizzazione consente l’accesso ad alcuni membri del personale per aggiustare il modello IA, quindi certi messaggi possono essere letti ed estrapolati volontariamente.
OpenAI afferma dunque di non condividere i dati con utenti di terze parti per scopi di marketing o pubblicità, ma li condivide con coloro che si occupano della manutenzione del sito Web e delle app mobile per garantirne il corretto funzionamento.
In definitiva, in ambienti lavorativi è meglio non usare ChatGPT, a meno che non si conoscano i rischi del suo utilizzo e si comprenda quali elementi condividere con il chatbot, evitando la fuga di documenti riservati – o anche loro porzioni.
Cosa succede se usi ChatGPT a lavoro?
L’uso di ChatGPT e altri strumenti di intelligenza artificiale in ambienti lavorativi può essere molto rischioso, considerati tutti i fattori sopra citati e, in particolar modo, il caso di Samsung. La tentazione di rendere il lavoro banale completandolo in pochi secondi va affrontata. In poche parole, bisogna evitare di automatizzare ogni azione. È necessaria un’analisi preliminare dei dati e una loro selezione accurata prima di condividerli con i chatbot. Alcune aziende ed istituzioni finanziarie (come JPMorgan e Bank of America) hanno proibito o posto limiti molto rigidi sull’uso di ChatGPT e non solo. Ma è la soluzione migliore?
Allo stato attuale è l’unico rimedio, dato lo sviluppo estremamente rapido delle soluzioni IA e l’interesse del pubblico per l’automatizzazione di determinate mansioni. Nonostante gli avvertimenti, molti dipendenti cedono al desiderio di facilitare il lavoro condividendo, inavvertitamente, dati sensibili. Solo una corretta educazione del lavoratore può portare infine a un uso sicuro di ChatGPT e non solo.
Le persone non devono pensare che le sessioni ChatGPT siano come un “giardino recintato”: devono percepire i modelli di linguaggio come “illusioni”, comprendendo una volta per tutte i vantaggi e gli svantaggi del suo utilizzo o di alternative altrettanto promettenti. In altre parole, meglio evitare l’uso dei chatbot come aiutanti, terapisti esseri umani virtuali pronti a sostenerci in ogni nostro compito e in ciascuna nostra richiesta. La tendenza umana ad antropomorfizzare le cose che sono inanimate non va supportata, dando vita all’”effetto Eliza” – il cui nome origina dal software scritto da Joseph Weizenbaum -, bensì va affrontata per tutelare il cittadino, che non deve farsi attrarre dall’intelligenza artificiale.