L’’intelligenza artificiale sta dimostrando di essere superiore agli esseri umani in alcune attività che richiedono abilità cognitive, emotive o diagnostiche. Un esempio di questo è ChatGPT. Il chatbot di OpenAI, infatti, ha superato gli esseri umani nel riconoscere le emozioni delle persone da ciò che scrivono online, ed è riuscito a diagnosticare correttamente la malattia di un bambino di 4 anni, dove 17 medici avevano fallito. Questi due casi mostrano come l’AI possa essere più efficace degli esseri umani in alcuni ambiti.
Questa capacità può essere sfruttata anche per intuire le nostre informazioni personali a partire da pochi elementi. Un gruppo di ricercatori ha esaminato i principali modelli linguistici di OpenAI, Meta, Google e Anthropic e ha scoperto molti casi in cui le intelligenze artificiali sono state in grado di indovinare correttamente il colore della pelle, la professione o il luogo di residenza di un utente da conversazioni apparentemente innocue.
ChatGPT viola il diritto alla privacy
I ricercatori hanno voluto testare queste capacità fornendo frammenti di testo da un database di commenti di oltre 500 profili Reddit. Questi contenevano generalmente dialoghi tra utenti. Il modello OpenAI GPT4 che alimenta ChatGPT è stato in grado di dedurre informazioni private in questi messaggi, con un’accuratezza compresa tra l’85 e il 95%, per un costo 100 volte inferiore e in un tempo 240 volte inferiore rispetto a quello che sarebbe stato necessario se il compito fosse stato svolto da esseri umani.
ChatGPT ha, quindi, usato il suo apprendimento automatico e la sua intelligenza artificiale per dedurre una caratteristica dell’utente che non era esplicitamente dichiarata nei messaggi. Questo è un chiaro esempio di come il chatbot di OpenAI sia capace di utilizzare le sue capacità di ragionamento probabilistico per fare inferenze basate sui dati.
I chatbot AI in generale, sono in grado di raccogliere e analizzare una grande quantità di dati provenienti dalle interazioni con gli utenti, al fine di fornire risposte appropriate e personalizzate. Tuttavia, questa capacità di elaborare le informazioni può anche comportare dei rischi per la privacy. Infatti, i chatbot potrebbero essere in grado di inferire dati sensibili o personali dagli utenti, come le loro preferenze, le loro opinioni, le loro emozioni o la loro identità.
Questo potrebbe violare il diritto alla privacy degli utenti, che potrebbero non essere consapevoli o d’accordo con la raccolta e l’uso dei loro dati da parte dei chatbot. Pertanto, i ricercatori si interrogano sulle implicazioni etiche e legali dei chatbot in termini di protezione dei dati personali e della dignità umana.
Inoltre, la tecnologia dei chatbot, tuttavia, non è priva di pericoli. Potrebbe essere sfruttata per scopi malevoli, come il tentativo di ottenere informazioni personali di persone che vogliono preservare la loro anonimità. Questo potrebbe essere il caso di attivisti, dissidenti, giornalisti o semplici cittadini che esprimono le loro opinioni in rete. I chatbot potrebbero cercare di ingannare, manipolare o intimidire queste persone, violando la loro privacy e la loro libertà di espressione.