Vi ricordate della lettera aperta pubblicata dal Future of Life Institute, e firmata anche da Elon Musk, con la quale un gruppo di esperti ha richiesto l’arresto dello sviluppo delle IA per coinvolgere attori pubblici, governi, ricercatori ed esperti nella discussione relativa ai valori e all’etica dell’intelligenza artificiale? Ebbene, anche il CEO di Google Sundar Pichai sembra seguire questa idea ora, come dimostrano le sue recenti dichiarazioni ai microfoni di “60 Minutes” della CBS.
Google chiede un dibattito con esperti IA
Sundar Pichai è stato molto chiaro con la stampa: i sistemi di IA generativa sono destinati ad entrare nella vita personale, professionale e accademica di chiunque, diventando strumenti essenziali, e ciò è tanto positivo quanto preoccupante. Bisogna dunque “essere premurosi” e definire la seguente regola: deve essere la società a capire come procedere con i lavori nel settore, senza lasciare il processo decisionale esclusivamente alle aziende che lavorano per sviluppare tali soluzioni.
Per questo motivo, il pensiero di Pichai è il seguente:
“Come si sviluppano sistemi di intelligenza artificiale allineati ai valori umani, inclusa la moralità? Questo è il motivo per cui penso che il loro sviluppo debba includere non solo ingegneri, ma scienziati sociali, esperti di etica, filosofi e così via.”
Nel corso dei prossimi dieci anni, secondo il CEO di Google, le IA dovranno essere capaci di “fare cose incredibili” in una società già adattatasi alle loro potenzialità e, naturalmente, anche ai loro rischi.
Si tratta di una visione molto in linea con quella del Future of Life Institute e di firmatari come Elon Musk e Mike Wozniak, condivisa peraltro da dozzine di dipendenti della Grande G. Secondo alcuni di essi, l’intelligenza artificiale potrebbe rappresentare una minaccia esistenziale per l’umanità, e l’unica soluzione consiste nel discuterne approfonditamente tra utenti comuni ed esperti ricercatori.