Google avverte di non condividere contenuti sensibili su Gemini, la famiglia di chatbot AI, poiché le conversazioni vengono archiviate e analizzate dai suoi sistemi. Secondo la nuova policy, infatti, le chat con Gemini, anche se scollegate dagli account Google, sono regolarmente lette da moderatori umani – interni o esterni non specificato – per migliorare il servizio.
Big G ammette di conservare questi dati, incluse informazioni su lingua, dispositivo e posizione dell’utente, per un massimo di 3 anni. L’azienda chiarisce così di raccogliere ampi set di dati dagli utenti Gemini, avvertendo di prestare attenzione a ciò che si condivide, poiché le conversazioni non sono private. L’aspetto positivo è che Google ha introdotto una nuova funzionalità che permette agli utenti di scegliere quali dati relativi alle app Gemini vengono salvati e come.
Come modificare le impostazioni dell’attività delle app Gemini
Per impostazione predefinita, le conversazioni con le app Gemini vengono salvate in un account Google per un periodo di tre anni, al fine di essere revisionate e utilizzate per migliorare i prodotti, i servizi e le tecnologie di apprendimento automatico di Google. Tuttavia, gli utenti possono disattivare questa opzione accedendo alla dashboard “La mia attività” di Google e selezionando l’attività delle app Gemini.
In questo modo, le future chat con Gemini non verranno più salvate. Gli utenti possono anche cancellare singoli messaggi e conversazioni dalla schermata “Attività”. Ciononostante, anche con questa opzione disabilitata, le conversazioni rimarranno comunque archiviate negli account Google per un massimo di 72 ore, per motivi di sicurezza e qualità del servizio.
Google avverte gli utenti di non inserire informazioni riservate o sensibili nelle loro conversazioni con le app Gemini, in quanto potrebbero essere viste da un revisore o usate da Google per migliorare i suoi prodotti, servizi e tecnologie di apprendimento automatico.
Le sfide della privacy nella GenAI
La politica di raccolta e conservazione dei dati di Google per le app Gemini non è molto diversa da quella dei suoi rivali nel campo della GenAI. Ad esempio, OpenAI salva tutte le chat con ChatGPT per 30 giorni, anche se la cronologia delle conversazioni è stata disattivata (a meno che l’utente non abbia sottoscritto un piano di livello aziendale con una politica di conservazione dei dati personalizzata).
La politica di Google mette in evidenza le difficoltà nel bilanciare la privacy degli utenti con lo sviluppo di AI che si auto-migliorano utilizzando i dati degli utenti stessi. In passato, politiche di conservazione dati troppo permissive per chatbot come Gemini hanno causato problemi legali ad altre aziende del settore.
L’estate scorsa, la FTC ha chiesto a OpenAI informazioni dettagliate su come l’azienda controlla i dati utilizzati per l’addestramento dei suoi modelli, compresi quelli dei consumatori, e su come tali dati sono protetti quando vi accedono terze parti. All’estero, il Garante Privacy italiano ha dichiarato che OpenAI non ha una base legale per raccogliere e archiviare su larga scala dati personali a fini di training dell’IA. C’è quindi pressione affinché queste aziende rispettino la privacy raccogliendo solo i dati essenziali per migliorare i loro servizi di intelligenza artificiale.
Le implicazioni per le aziende e i consumatori
Con la diffusione degli strumenti AI, le aziende sono più consapevoli dei rischi per la privacy. Un sondaggio Cisco ha rivelato che il 63% delle aziende ha posto limiti sui dati inseribili nell’AI, mentre il 27% l’ha vietata completamente. Tuttavia, il 45% dei dipendenti ha ammesso di aver inserito dati “problematici” nell’AI, incluse informazioni private su colleghi e datore di lavoro.
Per questo, aziende come OpenAI, Microsoft, Amazon e Google offrono prodotti enterprise AI che non conservano i dati oltre un certo periodo, sia per l’addestramento che per altri scopi, tutelando così la privacy. I consumatori invece, come spesso accade, sono i primi ad essere esclusi da queste protezioni.