Google Bard non è ancora disponibile in Europa perché non rispetta la normativa sulla privacy. Anche l’azienda di Mountain View sembra consapevole dei rischi, in quanto ha consigliato ai dipendenti di prestare attenzione quando usano Bard e altri chatbot. Samsung e Apple hanno completamente vietato l’uso dell’IA generativa per evitare la divulgazione di informazioni riservate.
Google conferma i rischi per la privacy
Google ha sviluppato il suo chatbot per recuperare terreno dei confronti di OpenAI e soprattutto di Microsoft. L’azienda di Mountain View ha promesso di sviluppare l’intelligenza artificiale in maniera responsabile, sottolineando però che si tratta di un tecnologia sperimentale. Ciò significa che può fornire informazioni errate.
In base alle fonti di Reuters, Google ha consigliato ai dipendenti di non usare come prompt materiali confidenziali. Probabilmente queste informazioni potrebbero essere fornite da Bard e altri chatbot come risposta alle richieste degli utenti. Nelle FAQ di Bard è scritto chiaramente di non includere informazioni che possono essere usate per identificare l’utente o altre persone nelle conversazioni.
Una delle funzionalità pubblicizzate è la possibilità di generare codice in oltre 20 linguaggi di programmazione. Google ha tuttavia consigliato agli ingegneri di non usare il codice generato da Bard, in quanto potrebbe essere sbagliato.
A questo punto sorge spontanea una domanda. Se Google ammette indirettamente che Bard e altri chatbot rappresentato un rischio per la privacy, allora perché gli utenti dovrebbero usarli? Tra l’altro, la stessa tecnologia di Bard verrà integrata nel motore di ricerca. L’azienda californiana ha infine confermato l’avvio di un dialogo con il garante della privacy irlandese che ha bloccato il lancio del chatbot in Europa.