Oltre 130 scienziati hanno firmato una lettera che elenca le linee guida e gli impegni per lo sviluppo responsabile dell’intelligenza artificiale nel campo della biologia. Il rischio, evidenziato dalle stesse aziende che forniscono i modelli, è il possibile uso della tecnologia per la creazione di armi biologiche.
Servono regole e controlli
Gli scienziati sottolineano l’enorme importanza dell’intelligenza artificiale nel campo della ricerca, in particolare per il design di nuove proteine. Attualmente i vantaggi della tecnologia superano di gran lunga i potenziali pericoli per l’umanità. Tuttavia, considerati i progressi previsti, potrebbe essere necessario un nuovo approccio proattivo alla gestione del rischio.
Non c’è nessun pericolo associato al design delle proteine finché non vengono prodotte in laboratorio tramite sintesi del DNA. Gli scienziati suggeriscono quindi di creare un elenco di fornitori che aderiscono a specifici standard di sicurezza. L’obiettivo principale è rilevare eventuali biomolecole pericolose.
Durante una testimonianza al Congresso degli Stati Uniti, il co-fondatore e CEO di Anthropic (Dario Amodei) ha dichiarato che l’intelligenza artificiale generativa permetterà di sviluppare nuovi armi biologiche entro i prossimi due o tre anni. Lo stesso pericolo è stato evidenziato da un altro co-fondatore (Jack Clark) durante un meeting alle Nazioni Unite.
I chatbot attuali non sono molto più utili di un motore di ricerca. Ma i ricercatori hanno iniziato a progettare sistemi IA per velocizzare lo sviluppo di medicine e vaccini che potrebbero essere sfruttati per creare armi biologiche, se non verranno implementate le necessarie misure di sicurezza. Non è chiaro però come dovrebbero funzionare queste misure. Il primo passo è consentire l’accesso ai modelli IA. Purtroppo i profitti hanno spesso la priorità sulla trasparenza.