Anthropic avverte i governi sui rischi catastrofici dell'AI

Anthropic avverte i governi sui rischi catastrofici dell'AI

Anthropic mette in guardia i governi di tutto il mondo sulle possibili conseguenze catastrofiche del rapido sviluppo dell'intelligenza artificiale.
Anthropic avverte i governi sui rischi catastrofici dell'AI
Anthropic mette in guardia i governi di tutto il mondo sulle possibili conseguenze catastrofiche del rapido sviluppo dell'intelligenza artificiale.

Per usare le parole di Anthropic, la startup AI che ha creato il chatbot AI Claude: “la finestra per la prevenzione proattiva dei rischi si sta chiudendo rapidamente“. I sistemi di intelligenza artificiale hanno compiuto progressi notevoli in tempi record, in campi diversi come la sicurezza informatica, il software engineering e la comprensione scientifica.

Ma come per ogni successo, c’è un prezzo da pagare e se da un lato questi progressi offrono molte possibilità, dall’altro possono attirare interessi meno nobili e persino distruttivi.

Gli incredibili progressi dell’AI

In un post sul blog, Anthropic ha sottolineato i progressi compiuti in un solo anno dai modelli AI in materia di codifica e di attacco informatico. “Nel compito di ingegneria del software SWE-bench, i modelli sono migliorati passando dalla capacità di risolvere l’1,96% di un set di test di problemi di codifica del mondo reale (Claude 2, ottobre 2023) al 13,5% (Devin, marzo 2024) al 49% (Claude 3.5 Sonnet, ottobre 2024)“, ha scritto l’azienda.

Internamente, il nostro Red Team ha riscontrato che i modelli attuali sono già in grado di fornire assistenza in un’ampia gamma di compiti legati all’attacco informatico e ci aspettiamo che la prossima generazione di modelli, che sarà in grado di pianificare compiti lunghi e in più fasi, sarà ancora più efficace“.

Inoltre, il post sul blog sottolinea che i sistemi di intelligenza artificiale hanno migliorato la loro comprensione scientifica di quasi il 18% solo da giugno a settembre di quest’anno, secondo il test di benchmark GPQA. OpenAI o1 ha ottenuto il 77,3% nella sezione più difficile del test; gli esperti umani hanno ottenuto l’81,2%.

Anthropic: regolamentare l’AI per evitare rischi catastrofici

Anthropic sta mettendo in guardia i governi dai rischi informatici e CBRN (chimici, biologici, radiologici e nucleari) . Secondo l’azienda, infatti, questi sistemi hanno ormai acquisito capacità che consentono loro di svolgere con sempre maggiore efficacia attività legate alla criminalità informatica e alla proliferazione di armi di distruzione di massa.

La startup fondata dai fratelli Amodei (ex membri senior di OpenAI), ha deciso di essere proattiva e sta sostenendo una regolamentazione mirata dell’AI, basata sulla propria “Responsible Scaling Policy” (RSP). L’obiettivo di questa politica è identificare, valutare e mitigare i rischi catastrofici in modo proporzionato, in base alle soglie di capacità raggiunte dai modelli.

Secondo Anthropic, tale regolamentazione, per essere di successo, dovrebbe incoraggiare alla trasparenza, all’adozione di pratiche di sicurezza e alla semplicità e attenzione alle misure.

Responsible Scaling Policy come prototipo di regolamentazione

Anthropic chiede uno sforzo collettivo per proteggerci dagli eccessi dell’AI. È un vero e proprio appello, come indicato sul suo blog, quello che l’azienda presenta, invitando i responsabili politici, l’industria dell’AI, i sostenitori della sicurezza, la società civile e i legislatori a lavorare insieme nei prossimi 18 mesi per sviluppare un quadro normativo efficace, ispirato ai principi della sua Responsible Scaling Policy.

Inoltre, mette in guardia dalle conseguenze disastrose dell’inazione o di una reazione troppo lenta da parte delle autorità pubbliche. Il rischio sarebbe quello di trovarsi nel “peggiore dei due mondi“, ovvre una regolamentazione “mal concepita e istintiva” che ostacola l’innovazione senza prevenire i rischi.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 nov 2024
Link copiato negli appunti