noyb, gruppo con sede a Vienna e attivo per la difesa della privacy, ha citato in giudizio OpenAI per le pratiche attuate da ChatGPT, ritenute in palese violazione di quanto previsto in Europa dal GDPR. In particolare, il servizio fornirebbe informazioni potenzialmente errate sui cittadini, impedendo inoltre a questi ultimi di accedere liberamente ai dati che li riguardano, persino di conoscere quale sia la provenienza.
OpenAI citata da noyb: ChatGPT e il GDPR
Gli articoli 5, 15 e 16 della normativa europea stabiliscono in modo chiaro che, i dettagli inerenti agli individui messi a disposizione dalle realtà online, debbano essere corretti. Inoltre, mette nero su bianco che i diretti interessati possano, in qualunque momento, sapere da chi sono stati generati, chiedendone eventualmente la cancellazione.
L’infrastruttura IA su cui poggia il chatbot, però, non sembra consentirlo, mostrando inoltre il fianco al ben noto problema delle allucinazioni. Si tratta della restituzione di informazioni parzialmente o completamente false. È il frutto di un comportamento anomalo degli algoritmi.
Facciamo un esempio. Se chiedo al servizio Chi è Mario Rossi?
, la risposta generata potrebbe non essere corretta. Il motivo è da ricercare nella natura errata dei dati forniti al modello di intelligenza artificiale durante la fase di addestramento (rastrellati online tramite scraping). A quel punto, il diretto interessato dovrebbe poter chiedere al gestore da dove arrivano le informazioni e, se lo desidera, esigere la loro cancellazione. Ad oggi, con OpenAI non è possibile farlo.
Di fatto, la motivazione su cui poggia la causa legale non è troppo differente rispetto a quella che, ormai più di un anno, ha spinto il Garante Privacy italiano a imporre il blocco temporaneo dell’accesso a ChatGPT. All’epoca, si trattò del primo provvedimento di questo tipo.
La causa legale è stata intentata da noyb presso DSB, l’autorità austriaca incaricata della tutela dei dati personali. La richiesta è relativa all’apertura di un’indagine sul metodo impiegato da OpenAI per l’elaborazione delle informazioni. Inoltre, il gruppo ha chiesto che sia imposta l’implementazione di misure adeguate nell’ambito dell’addestramento dei modelli IA (in questo caso quelli della famiglia GPT).
Non sono da escludere sanzioni nel caso di violazioni al GDPR confermate. Al momento non si registrano repliche da parte dell’organizzazione di Sam Altman che, lo ricordiamo, è sostenuta economicamente (tra gli altri) anche da Microsoft.