Ormai è inutile nascondere che l’IA generativa sia uno strumento potenzialmente pericoloso. Sin da inizio 2023, quando ChatGPT ha dato il via al boom dell’intelligenza artificiale, si è discusso dei rischi di tale tecnologia per la popolazione. Più recentemente, nello specifico, abbiamo visto i potenziali impieghi malevoli di Google Bard, ma anche altri modelli di linguaggio come Bing Chat e generatori di immagini come Stable Diffusion possono nascondere pericoli notevoli.
Secondo l’Ibm Cost of Data Breach, però, le soluzioni per generare testi e gli strumenti che si affidano al machine learning sono la vera minaccia, in quanto abbattono di molto i costi degli attacchi informatici.
IA grave rischio per la cybersecurity
Come ripreso dai colleghi del Corriere Comunicazioni, il report di Ibm Security parla chiaro: il costo medio per una violazione dei dati sta salendo e anche i costi di rilevamento stanno aumentando, sia in Italia che nel resto del mondo. In media sono necessari 235 giorni per identificare e contenere una minaccia informatica, che può essere condotta tramite social engineering, phishing, credenziali rubate o compromesse, furto di account aziendali o insider malintenzionati.
In tutto questo l’IA può essere usata estensivamente per condurre offensive più rapide ed efficaci. Il loro tempo di individuazione è più rapido e supera di poco i 100 giorni di vita, ma i costi sono nettamente inferiori. Allo stesso modo, anche le soluzioni di sicurezza potenziate da IA costano molto meno. Tuttavia, quasi il 38% delle organizzazioni in Italia non ha ancora integrato l’AI e l’automazione nei propri sistemi di sicurezza informatica, e ciò comporta un grave divario tra qualità dell’offensiva e della protezione dei sistemi.
Fermare l’IA per impedire l’uso per scopi malevoli è ormai impossibile. Gli esperti, pertanto, dovranno focalizzarsi sulla realizzazione e integrazione di sistemi avanzati.