Geoffrey Hinton parla dei rischi dell'IA

Geoffrey Hinton parla dei rischi dell'IA

Geoffrey Hinton ha rilasciato un'intervista al New York Times per evidenziare che i futuri modelli IA potrebbe essere un pericolo per l'umanità.
Geoffrey Hinton parla dei rischi dell'IA
Geoffrey Hinton ha rilasciato un'intervista al New York Times per evidenziare che i futuri modelli IA potrebbe essere un pericolo per l'umanità.

Geoffrey Hinton, considerato uno dei “padrini” dell’intelligenza artificiale, ha deciso di lasciare Google per parlare liberamente dei rischi derivanti dalla tecnologia. Lo scienziato britannico, vincitore del Premio Turing 2018 per il suo importante contribuito nel campo del deep learning, ritiene che lo sviluppo incontrollato delle IA generative potrebbe avere pericolose conseguenze per l’intera umanità.

Hinton ha paura dell’intelligenza artificiale?

Geoffrey Hinton è noto soprattutto per aver sfruttato la tecnica della “backpropagation” (retropropagazione) nell’addestramento delle reti neurali, oggi usata nei modelli IA generativi. Dal 2013 a fine aprile 2023 ha lavorato per Google, in seguito all’acquisizione della sua azienda DNNresearch, fondata nel 2012 insieme ad Alex Krizhevsky e Ilya Sutskever (co-fondatore e Chief Scientist di OpenAI).

A fine marzo, un gruppo di esperti del settore ha firmato una lettera aperta per chiedere di sospendere lo sviluppo di nuovi modelli IA per almeno sei mesi. Hinton non ha firmato la lettera, ma ha evidenziato i pericoli derivanti dallo sviluppo di modelli IA sempre più complessi. In soli cinque anni sono stati compiuti notevoli miglioramenti e oggi l’intelligenza artificiale può eclissare l’intelligenza umana in diversi compiti.

Geoffrey Hinton

Anche se le aziende promettono un approccio responsabile, Hinton teme che la situazione potrebbe sfuggire di mano. I modelli IA possono generare immagini, audio e video praticamente indistinguibili da quelli reali, contribuendo alla diffusione delle fake news. I chatbot, come ChatGPT, verranno sicuramente usati per eseguire attività umane con la conseguente perdita di posti di lavoro.

Le future versioni della tecnologia potrebbero rappresentare un serio pericolo per l’umanità, se non ci sarà una regolamentazione e una collaborazione tra gli scienziati. L’intelligenza artificiale generale potrebbe funzionare senza intervento umano, quindi prendere decisioni in maniera autonoma, come lanciare un attacco nucleare. Ciò non accadrà prima di 30 o 50 anni, ma gli scenari immaginati nei film di fantascienza non sembrano molto lontani.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
2 mag 2023
Link copiato negli appunti