OpenAI e il Los Alamos National Laboratory, uno dei principali laboratori nazionali degli Stati Uniti (con una lunga storia di ricerca sulle armi nucleari), hanno avviato una partnership per esplorare il potenziale dei modelli AI multimodali nella ricerca bioscientifica. L’obiettivo è valutare come sistemi avanzati come GPT-4o, con le loro capacità di elaborazione del linguaggio e delle immagini, possano essere utilizzati in modo sicuro nei laboratori per far progredire la ricerca in questo campo.
La collaborazione tra OpenAI e Los Alamos National Laboratory è in linea con l’ordine esecutivo della Casa Bianca sullo sviluppo e l’uso sicuro dell’AI. L’ordine incoraggia i laboratori nazionali del Dipartimento dell’Energia degli Stati Uniti a valutare le capacità dei modelli AI all’avanguardia, con particolare attenzione alle potenziali applicazioni biologiche.
Combinare expertise umana e AI
In questo studio, verranno coinvolti sia ricercatori esperti che alle prime armi, cui verranno fatte svolgere attività sperimentali standard tipiche di un laboratorio, come preparare soluzioni chimiche o analizzare campioni biologici. L’obiettivo è quello di testare, attraverso queste simulazioni, quanto gli strumenti AI possano aiutare gli scienziati nello svolgimento pratico del loro lavoro quotidiano in laboratorio.
I risultati serviranno come valutazione del potenziale di queste tecnologie per supportare gli scienziati anche in attività più complesse e delicate, tenendo conto di potenziali problematiche di sicurezza e “dual use” che potrebbero emergere dall’applicazione dell’AI in certi ambiti.
Lo studio si basa sul lavoro già svolto da OpenAI sulle minacce biologiche e segue il suo Preparedness Framework, che delinea l’approccio dell’azienda al monitoraggio, alla valutazione, alla previsione e alla difesa dai rischi legati ai modelli AI. Mira Murati, CTO di OpenAI, ha sottolineato come questa partnership sia una naturale evoluzione della missione dell’azienda di far progredire la ricerca scientifica, comprendendo e mitigando al contempo i rischi associati.
Stabilire nuovi standard per la sicurezza e l’efficacia dell’AI nel campo scientifico
OpenAI auspica che questa collaborazione contribuisca a definire nuovi standard per l’uso sicuro ed efficace dell’AI nel campo scientifico. Tuttavia, alcuni critici potrebbero sollevare preoccupazioni riguardo al potenziale uso improprio della ricerca sull’AI nelle bioscienze, in particolare per quanto riguarda lo sviluppo di armi biologiche.
L’apertura di OpenAI alla cooperazione militare e il suo impegno etico
Recentemente, OpenAI ha manifestato la sua apertura alla cooperazione con il settore militare, pur sottolineando che la sua tecnologia AI non deve essere utilizzata per causare danni, incluso lo sviluppo di armi. Attualmente, l’azienda è coinvolta in un progetto pubblicamente noto nel settore militare, focalizzato sulla sicurezza informatica. Inoltre, l’ex capo della NSA è recentemente entrato a far parte del consiglio di amministrazione di OpenAI.