Questa sera andrà in scena l’incontro tra il Garante Privacy nostrano e i rappresentanti dell’organizzazione statunitense OpenAI: al centro della discussione, neanche a dirlo, il provvedimento dell’autorità che la scorsa settimana ha bloccato l’accesso a ChatGPT dall’Italia e le sue conseguenze. Ricordiamo che lo stop è da ritenersi temporaneo e destinato a cadere nel momento stesso in cui la piattaforma dimostrerà di aver implementato gli accorgimenti necessari per operare in modo conforme a quanto previste dalle normative italiane ed europee in tema di trattamento dei dati personali.
Garante Privacy e OpenAI: l’incontro su ChatGPT
Quasi certamente, non si tratterà di un confronto fin da subito risolutivo né destinato a esaurirsi nell’immediato. È lo stesso Guido Scorza a parlare di un primo incontro
, messo in agenda proprio con l’obiettivo di avviare una collaborazione, puntando a trovare una soluzione condivisa.
#cosedagarante | #senza(altre)parole | @OpenAI disponibile a collaborare per risolvere le criticità emerse in relazione al rispetto della disciplina sul trattamento dei dati personali | Domani un primo incontro | https://t.co/u7vgQkihvR
— Guido Scorza (@guidoscorza) April 4, 2023
Non è da escludere l’ipotesi che la decisione possa essere replicata da altri paesi europei, in considerazione delle modalità attuate da OpenAI per la raccolta e il trattamento dei dati personali, ritenute dall’autorità nostrana palesemente in violazione di quanto prevedono le leggi vigenti e le linee guida sul tema, a partire dal GDPR.
Contestualmente alla pubblicazione del provvedimento (secondo qualcuno contenente diversi punti deboli) è stata avviata un’istruttoria.
Nel frattempo, in attesa che OpenAI possa aggiustare il tiro, chi nonostante il blocco ha cercato un metodo efficace per continuare a utilizzare ChatGPT si è quasi inevitabilmente imbattuto in una VPN.
In estrema sintesi, sono tre le violazioni identificate nel sistema approntato dall’organizzazione statunitense. La prima è quella che interessa i dati raccolti per l’addestramento degli algoritmi, appartenenti a miliardi di persone non informate a proposito della pratica. La seconda chiama in causa il salvataggio di quanto digitato dagli utenti durante le conversazioni con il chatbot, per una successiva analisi ed elaborazione. Infine, la terza, la generazione dei contenuti restituiti in output, talvolta non coerenti e non in linea con le richieste ricevute o con l’identità personale di chi le ha inoltrate.