L’intelligenza artificiale corre veloce, ma chi controlla i controllori? A quanto pare nessuno, o quasi. Lo rivela la prima pagella sulla sicurezza dell’AI firmata da Future of Life, un think tank indipendente che ha passato ai raggi X i big del settore: da OpenAI a Google DeepMind, passando per Meta, Anthropic, x.AI e Zhipu AI.
Il verdetto? Un’insufficienza piena per il colosso di Zuckerberg, che si becca una bella F, il voto peggiore. Ma anche gli altri non se la cavano molto meglio: la “prima della classe” Anthropic si ferma a un misero C, equivalente al nostro 6. Tutti gli altri navigano tra il 5+ e il 5 scarso.
La pagella sulla sicurezza dell’AI: Meta insufficiente
Ma come si arriva a questi voti? Future of Life ha messo a punto un sistema di valutazione basato su 42 indicatori di “condotta responsabile“, che spaziano dalla trasparenza alla governance, passando per la gestione dei rischi e la strategia di sicurezza esistenziale (sì, esistenziale).
E i risultati non sono per niente rassicuranti: “Lacune significative nelle misure di sicurezza e un serio bisogno di una maggiore responsabilità“, si legge nel report. In parole povere: le aziende AI stanno correndo troppo e male, senza le dovute precauzioni.
Tutti i modelli vulnerabili agli attacchi, non solo quelli di Meta
Secondo il report tutti i modelli sono “vulnerabili agli attacchi di adversarial machine learning (ovvero ai tentativi di ingannare o compromettere il sistema). Non solo: c’è anche il rischio concreto che questi modelli diventino “non sicuri e sfuggano al controllo umano“.
Ma la critica più dura riguarda l’incapacità delle aziende di “resistere alla tentazione del profitto che spinge a trascurare gli standard di sicurezza pur di tagliare i costi in assenza di una supervisione indipendente“. Tradotto: i big dell’AI badano più al portafogli che alla sicurezza, e senza un controllo esterno sono pronti a chiudere un occhio (o anche due) pur di non perdere il treno dell’innovazione.
Anthropic e OpenAI promosse (con riserva) per la governance, ma…
L’unica (piccola) consolazione arriva dalla governance, dove Anthropic e OpenAI strappano una sufficienza risicata grazie alle loro “strutture promettenti”. Ma anche qui c’è un ma: secondo gli esperti, serve una “validazione di terze parti” sulla valutazione dei rischi e sul rispetto dei framework di sicurezza. Insomma, fidarsi è bene, ma non fidarsi è meglio.
L’appello degli esperti: “Serve una supervisione indipendente, prima che sia troppo tardi”
Morale della favola? L’intelligenza artificiale ha bisogno di una “supervisione indipendente” e di una maggiore responsabilità da parte delle aziende. E ne ha bisogno in fretta, prima che sia troppo tardi: “Più potenti diventano i modelli, più reali diventano i danni”, avverte il report.