Lunedì sera si è svolta una manifestazione di protesta fuori dagli uffici di OpenAI, organizzata da due gruppi – Pause AI e No AGI – contro lo sviluppo dell’intelligenza artificiale da parte dell’azienda. I manifestanti hanno invitato apertamente gli ingegneri dell’azienda ad abbandonare i progetti su sistemi di AI avanzata come ChatGPT.
Il messaggio della protesta è chiaro: interrompere la creazione di intelligenze artificiali che potrebbero superare quella umana (la cosiddetta AGI) ed evitare ulteriori collaborazioni militari. L’evento è una reazione all’eliminazione del divieto di usare l’IA per scopi bellici, avvenuta il mese scorso, e all’assunzione del Pentagono come cliente. I manifestanti chiedono quindi di fermare lo sviluppo incontrollato di AI potenti e potenzialmente pericolose.
Le motivazioni degli organizzatori
Gli organizzatori della protesta, Pause AI e No AGI, sono entrambi contrari allo sviluppo dell’IA generale (AGI), un’intelligenza in grado di eseguire qualsiasi attività intellettuale umana, ma con capacità e velocità superiori. I due gruppi hanno espresso le loro preoccupazioni e le loro speranze in un’intervista a VentureBeat.
In un’intervista con VentureBeat, i rappresentanti di entrambe le organizzazioni hanno espresso forti preoccupazioni verso l’AGI e la speranza di fermarne la creazione. Temono che un’intelligenza artificiale così avanzata possa minare il significato stesso dell’esistenza e della vita umana. I due gruppi condividono l’obiettivo di evitare lo sviluppo incontrollato di un’AI superumana dalle conseguenze imprevedibili.
Nonostante il loro obiettivo comune di fermare l’AGI, i due gruppi organizzatori hanno dei metodi diversi. No AGI si oppone fermamente alla creazione dell’AGI, sottolineando le potenziali minacce psicologiche e la perdita di significato della vita umana. Pause AI è aperta all’idea dell’AGI, se può essere sviluppata in modo sicuro.
Il contesto del dibattito sull’etica dell’AI
La protesta va inquadrata nel più ampio dibattito pubblico sull’etica dell’intelligenza artificiale, che si è acceso dopo la decisione di OpenAI di rimuovere il divieto di usi militari dell’AI e di collaborare con il Pentagono. Queste mosse hanno sollevato preoccupazioni sulla militarizzazione dell’AI e le sue potenziali conseguenze destabilizzanti.
I manifestanti temono che l’intelligenza artificiale possa alterare gli equilibri di potere e i processi decisionali nella società, oltre a causare la perdita di posti di lavoro e l’autonomia bellica. La protesta esprime quindi le crescenti perplessità sull’impatto sociale dell’AI e sulla necessità di un dibattito pubblico per delineare limiti etici a garantire un suo sviluppo responsabile.
La sfiducia verso OpenAI e la necessità di regolamentazione
I manifestanti hanno espresso la loro sfiducia verso OpenAI, accusandola di non rispettare le sue promesse. Elmore ha sottolineato la frequenza con cui OpenAI ha annullato le sue politiche, come quella che permetteva al consiglio di amministrazione di licenziare il suo capo, Sam Altman, o quella che impediva di accettare clienti militari. Elmore ha affermato che l’autogoverno non è sufficiente per queste aziende, e che è necessaria una regolamentazione esterna.
Entrambi i gruppi organizzatori hanno dichiarato che questa non sarà probabilmente l’ultima protesta contro i rischi dell’intelligenza artificiale. Nel frattempo la Silicon Valley prosegue velocemente nello sviluppo dell’AI, in una corsa verso un futuro ignoto che desta timori crescenti in parte dell’opinione pubblica, come dimostra la manifestazione davanti alla sede di OpenAI. Il dibattito pubblico su rischi e sull’etica dell’AI è destinato ad acuirsi.