Nella stessa giornata in cui Google lancia la sezione “Aggiornamenti sperimentali” per l’IA Bard, concepita per permettere a chiunque di scoprire le ultime novità introdotte nel chatbot proprietario, spunta in rete un report del New York Times molto interessante. Secondo quanto scritto dal portale statunitense, alcuni dipendenti di Google avrebbero cercato di fermare il lancio di Bard lanciando un allarme sullo sviluppo dell’intelligenza artificiale.
L’allarme di alcuni dipendenti per Google Bard
Stando al report, due dipendenti incaricati dell’esaminazione di tutti i prodotti IA della società di Mountain View avrebbero tentato di impedire il rilascio del chatbot, alla luce di alcune preoccupazioni correlate alla generazione di dichiarazioni pericolose o false. I due revisori in questione hanno raccomandato il blocco di Bard in seguito alla valutazione dei rischi, ritenendo che il chatbot non fosse pronto per l’uso diffuso.
In risposta, la direttrice del Responsible Innovation Group di Google, Jen Gennai avrebbe modificato il documento da loro condiviso internamente al fine di rimuovere la raccomandazione e minimizzare i rischi del chatbot. Allo stesso NYT Gennai ha dunque spiegato che i revisori non avrebbero dovuto valutare se procedere o meno con il debutto di Bard e che, ad ogni modo, questi commenti sono stati accolti dai tecnici per “correggere imprecisioni” e lanciare l’intelligenza artificiale come esperimento limitato a pochi tester.
Considerata la corsa alle IA generative – e non solo – da parte dei giganti del mondo tech, le preoccupazioni sono in fondo lecite. Anzi, nelle scorse settimane anche Elon Musk e migliaia di altri firmatari hanno firmato una open letter chiedendo l’arresto dello sviluppo delle IA dopo GPT-4 “per almeno sei mesi”, affinché tutti gli attori pubblici possano discutere apertamente sul loro futuro.