Nello stesso giorno in cui OpenAI rende disponibile in Italia l’applicazione ufficiale iOS del chatbot, ChatGPT mette un piede in Parlamento, attraverso la voce di Marco Lombardo (Azione). Al termine del proprio intervento, a proposito della ratifica degli accordi tra il nostro paese e la Svizzera, il senatore ha pronunciato quanto segue.
L’intervento che avete appena ascoltato non è il mio. A dire il vero, non è il prodotto nemmeno dell’intelligenza umana. È il prodotto di un algoritmo di intelligenza artificiale.
Marco Lombardo di Azione ha portato ChatGPT al Senato
Un esperimento? Una provocazione? Un monito? Ognuno interpreti l’iniziativa a modo suo, di certo l’obiettivo è stato centrato: dimostrare quali siano le potenzialità delle forme più evolute di IA e, di conseguenza, i loro potenziali rischi, sottoponendoli all’attenzione anche dei non addetti ai lavori. Stimolare un confronto sul tema, sulla necessità di trovare un equilibrio tra opportunità da cogliere e ripercussioni negative da gestire, pur senza soffocare l’innovazione, non può che essere cosa giusta.
L’intelligenza artificiale può migliorare la nostra vita quotidiana, ma come possiamo garantire che non crei nuove disuguaglianze e divisioni nella società?
Il discorso del Senatore @mlombardo81 è stato scritto dall’IA e nessuno di noi sarebbe stato in grado di distinguerlo da… pic.twitter.com/36phkpWyeb
— Azione (@Azione_it) May 31, 2023
Aperto con il tradizionale Signor Presidente, onorevoli colleghi
e concluso con Chiediamo al Governo di dare seguito a questi impegni e di trovare una soluzione adeguata al più presto
, l’intervento scritto da ChatGPT è stato definito impeccabile
in un tweet di Carlo Calenda. Il segretario di Azione invita a una riflessione, anche alla luce dell’appello di ieri degli scienziati americani
.
Bene che se ne parli e se ne discuta, nonostante qualche imprecisione di troppo per chi si fa portavoce della causa. Sarebbe stato opportuno avvisare Lombardo che il chatbot non si chiama ChatGP4, semmai ChatGPT con funzionamento basato sul modello GPT-4. E il suo leader che gli scienziati americani da lui citati siano in realtà i firmatari del documento pubblicato da Center for AI Safety. È l’appello che invita a considerare i potenziali rischi di un’evoluzione incontrollata dell’intelligenza artificiale. Tra chi l’ha sottoscritto c’è anche Sam Altman, co-fondatore e attuale CEO di OpenAI.