Meta bocciata in sicurezza AI, gli altri promossi a stento

Meta bocciata in sicurezza AI, gli altri promossi a stento

Secondo il primo rapporto sulla sicurezza dell'AI, Meta ottiene un pessimo voto. Sufficienza risicata per gli altri colossi tech da Google a OpenAI.
Meta bocciata in sicurezza AI, gli altri promossi a stento
Secondo il primo rapporto sulla sicurezza dell'AI, Meta ottiene un pessimo voto. Sufficienza risicata per gli altri colossi tech da Google a OpenAI.

L’intelligenza artificiale corre veloce, ma chi controlla i controllori? A quanto pare nessuno, o quasi. Lo rivela la prima pagella sulla sicurezza dell’AI firmata da Future of Life, un think tank indipendente che ha passato ai raggi X i big del settore: da OpenAI a Google DeepMind, passando per Meta, Anthropic, x.AI e Zhipu AI.

Il verdetto? Un’insufficienza piena per il colosso di Zuckerberg, che si becca una bella F, il voto peggiore. Ma anche gli altri non se la cavano molto meglio: la “prima della classe” Anthropic si ferma a un misero C, equivalente al nostro 6. Tutti gli altri navigano tra il 5+ e il 5 scarso.

La pagella sulla sicurezza dell’AI: Meta insufficiente

Ma come si arriva a questi voti? Future of Life ha messo a punto un sistema di valutazione basato su 42 indicatori di “condotta responsabile“, che spaziano dalla trasparenza alla governance, passando per la gestione dei rischi e la strategia di sicurezza esistenziale (sì, esistenziale).

E i risultati non sono per niente rassicuranti: “Lacune significative nelle misure di sicurezza e un serio bisogno di una maggiore responsabilità“, si legge nel report. In parole povere: le aziende AI stanno correndo troppo e male, senza le dovute precauzioni.

Tutti i modelli vulnerabili agli attacchi, non solo quelli di Meta

Secondo il report tutti i modelli sono “vulnerabili agli attacchi di adversarial machine learning (ovvero ai tentativi di ingannare o compromettere il sistema). Non solo: c’è anche il rischio concreto che questi modelli diventino “non sicuri e sfuggano al controllo umano“.

Ma la critica più dura riguarda l’incapacità delle aziende di “resistere alla tentazione del profitto che spinge a trascurare gli standard di sicurezza pur di tagliare i costi in assenza di una supervisione indipendente“. Tradotto: i big dell’AI badano più al portafogli che alla sicurezza, e senza un controllo esterno sono pronti a chiudere un occhio (o anche due) pur di non perdere il treno dell’innovazione.

Anthropic e OpenAI promosse (con riserva) per la governance, ma…

L’unica (piccola) consolazione arriva dalla governance, dove Anthropic e OpenAI strappano una sufficienza risicata grazie alle loro “strutture promettenti”. Ma anche qui c’è un ma: secondo gli esperti, serve una “validazione di terze parti” sulla valutazione dei rischi e sul rispetto dei framework di sicurezza. Insomma, fidarsi è bene, ma non fidarsi è meglio.

L’appello degli esperti: “Serve una supervisione indipendente, prima che sia troppo tardi”

Morale della favola? L’intelligenza artificiale ha bisogno di una “supervisione indipendente” e di una maggiore responsabilità da parte delle aziende. E ne ha bisogno in fretta, prima che sia troppo tardi: “Più potenti diventano i modelli, più reali diventano i danni”, avverte il report.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 dic 2024
Link copiato negli appunti