ChatGPT, il sistema di chat basato sull’intelligenza artificiale di OpenAI, ha raggiunto più di 100 milioni di utenti in tutto il mondo. Le potenzialità di questa nuova tecnologia, che imita l’intelligenza umana, sono tante, ma richiede anche una maggiore regolamentazione. Per affrontare questa sfida, OpenAI sta formando un team dedicato per sviluppare modelli ancora più sicuri e affidabili.
OpenAI ha annunciato il lancio di una rete di Red Teaming, formata da esperti in grado di fornire consulenza sulla valutazione dei rischi e sulle misure di mitigazione per lo sviluppo di modelli più sicuri. Questa rete permetterà all’azienda di effettuare le sue valutazioni del rischio in modo più sistematico e rigoroso, coinvolgendo diverse fasi del ciclo di vita del modello e del prodotto, invece di basarsi su “interventi occasionali e processi di selezione prima di rilasciare modelli importanti“.
A.A.A. cercasi esperti in tutti i campi
La rete di esperti collaborerà alla valutazione dei rischi in base al loro ambito di competenza durante tutto il ciclo di vita del modello e del prodotto. Lo scopo è di fornire feedback diversi e continui per rendere il red teaming un processo iterativo e adattivo.
L’invito a candidarsi è aperto a esperti di tutto il mondo, indipendentemente dal loro background. Per far parte del team di Red Teaming, sono richieste competenze in vari settori, come l’educazione, l’economia, il diritto, le lingue, le scienze politiche e la psicologia, tra gli altri. OpenAI ha precisato che non è necessario avere esperienza pregressa con i sistemi di intelligenza artificiale o con i modelli linguistici.
I membri della rete, naturalmente, saranno ricompensati per il loro tempo. Poiché non saranno coinvolti in ogni nuovo modello o progetto, far parte del red teaming richiederebbe un impegno minimo di cinque ore all’anno. È possibile candidarsi per far parte della rete attraverso il sito di OpenAI. Gli esperti potranno confrontarsi tra loro su “pratiche e risultati del red teaming” in generale, si legge nel blog, e non sarà loro impedito di pubblicare le ricerche o di perseguire altre opportunità, ma dovranno attenersi agli accordi di non divulgazione (NDA).
“Questa rete offre un’opportunità unica per dare forma allo sviluppo di tecnologie e politiche di IA più sicure e all’impatto che l’intelligenza artificiale può avere sul nostro modo di vivere, lavorare e interagire“, ha affermato OpenAI.
Il red teaming è un processo fondamentale per verificare l’efficacia e garantire la sicurezza delle nuove tecnologie. Alcune delle maggiori aziende tecnologiche, come Google e Microsoft, hanno già dei team specializzati che testano regolarmente i loro modelli di AI.