OpenAI ha una sfida ambiziosa: creare modelli AI che si comportino in modo etico e responsabile, rispettando i valori dell’umanità. Per farlo, ha bisogno dell’aiuto del pubblico. L’obiettivo è assicurare che le future creazioni di OpenAI nel campo dell’intelligenza artificiale rispecchino i principi umanistici universali e non entrino in conflitto con essi.
La società, infatti, ha appena annunciato la formazione di un nuovo team di ricercatori e ingegneri, chiamato Collective Alignment. Avrà il compito di sviluppare un sistema per raccogliere e “codificare” i suggerimenti del pubblico sui comportamenti dei suoi modelli nei prodotti e servizi OpenAI.
Il team si baserà sul lavoro già svolto dal programma pubblico di OpenAI, lanciato lo scorso maggio, che ha assegnato sovvenzioni a individui, team e organizzazioni. Lo scopo è condurre esperimenti su come creare un “processo democratico” per decidere quali regole debbano seguire i sistemi di intelligenza artificiale.
I risultati degli esperimenti finanziati da OpenAI
OpenAI ha pubblicato sul proprio blog una sintesi dei risultati degli studi finanziati attraverso il programma di sovvenzioni. Queste ricerche hanno esplorato modalità innovative di coinvolgimento della società civile nello sviluppo dell’intelligenza artificiale. In particolare, sono state testate interfacce di video chat per il dialogo con il pubblico, piattaforme di crowdsourcing per la verifica collettiva dei modelli AI, e metodi per mappare le convinzioni delle persone su dimensioni rilevanti per mettere a punto i sistemi AI.
I risultati forniscono ad OpenAI preziosi spunti su come rendere lo sviluppo dell’IA un processo realmente partecipativo e allineato alle percezioni e ai valori condivisi. La società ha pubblicato tutti i codici utilizzati negli esperimenti, insieme a brevi riassunti di ogni proposta e ai risultati di alto livello.
Le critiche e le sfide
OpenAI ha presentato il programma di sovvenzioni e il team Collective Alignment come esempi della sua volontà di ascoltare il pubblico e di essere trasparente sulle sue attività. Tuttavia, vista la posizione critica del CEO Altman e di altri leader di OpenAI nei confronti della regolamentazione dell’AI, restano dubbi sulla reale apertura. Infatti, i vertici di OpenAI hanno ripetutamente sostenuto che l’innovazione nell’AI è troppo veloce per essere controllata adeguatamente dalle autorità, da cui deriverebbe la necessità di affidarsi al crowdsourcing.
Alcuni rivali, tra cui Meta, accusano OpenAI di voler acquisire un vantaggio normativo nel settore spingendo contro la ricerca aperta. OpenAI nega, e indica il programma di sovvenzioni come esempio della propria apertura.
OpenAI sotto esame
OpenAI è comunque sempre più sotto esame da parte dei politici. In UK è in corso un’indagine sui suoi legami con Microsoft, mentre in UE ha cercato di ridurre i rischi normativi sulla privacy dei dati, facendo leva sulla filiale di Dublino. Per tranquillizzare le autorità, la società ha annunciato collaborazioni per limitare l’uso illecito della sua tecnologia nelle elezioni. Tra gli sforzi, rendere più evidente quando le immagini sono generate dall’AI e sviluppare sistemi per identificare i contenuti generati anche dopo che le immagini sono state modificate.