L’intelligenza artificiale non fa paura soltanto ai dipendenti delle grandi aziende. Una nuova ricerca condotta da Gartner tra i top manager internazionali svela che l’IA generativa è ufficialmente al secondo posto nella classifica dei rischi più importanti per le aziende, superando persino le tensioni tra Paesi occidentali e Cina, mercato cruciale per più settori. Le imprese hanno paura dell’IA generativa? Vediamo in che modo.
IA generativa “molto rischiosa” per le aziende
L’indagine ripresa anche dal Corriere Comunicazioni parla chiaro: un campione di dirigenti senior di aziende nei settori Legali, Compliance e Risk Management ha definito l’IA generativa come il secondo maggior fattore di rischio, e solo la viability delle terze parti preoccupa di più. Ma come viene valutato il rischio? Principalmente sulla base del possibile impatto della tecnologia; delle tempistiche di adozione, apprendimento e di operazione; del livello di attenzione richiesta a ogni livello dell’azienda; e delle opportunità percepite.
Come rivela Ran Xu, direttore della ricerca presso Gartner Risk & Audit Practice, l’IA generativa ha tanti casi d’uso ma non propriamente circoscritti e analizzati: “La disponibilità di massa dell’Ai generativa compare nella top ten per la prima volta come secondo rischio più frequentemente citato nel nostro sondaggio del secondo trimestre. Ciò riflette sia la rapida crescita della consapevolezza pubblica e dell’uso di strumenti di intelligenza artificiale generativa, sia l’ampiezza dei potenziali casi d’uso, e quindi i potenziali rischi, che questi strumenti generano”.
I tre rischi principali riguardano proprietà intellettuale, privacy dei dati e cybersicurezza. Si teme la condivisione di dati sensibili con terze parti senza preavviso, assieme alle potenzialità delle IA in mano ai malintenzionati: “Abbiamo visto esempi di codice malware e ransomware che l’Ai generativa è stata indotta a produrre, così come attacchi del tipo prompt injections che possono indurre questi strumenti a fornire informazioni che non dovrebbero. Ciò sta portando all’industrializzazione degli attacchi di phishing avanzati”, spiega Xu.
Il futuro dipende quindi da un approccio responsabile: le organizzazioni devono avere personale specializzato, e amministratori pronti ad assumere ruoli pratici nei processi di adozione delle IA.