Cybersecurity: l'AI generativa pone nuovi rischi per le aziende

Cybersecurity: l'AI generativa pone nuovi rischi per le aziende

Una nuova ricerca di Menlo Security rivela come la crescita esplosiva dell'IA generativa stia creando nuove sfide di cybersecurity per le aziende.
Cybersecurity: l'AI generativa pone nuovi rischi per le aziende
Una nuova ricerca di Menlo Security rivela come la crescita esplosiva dell'IA generativa stia creando nuove sfide di cybersecurity per le aziende.

Una recente ricerca di Menlo Security rivela come lo straordinario successo di strumenti di AI generativa come ChatGPT stia costringendo le aziende a ripensare con urgenza le proprie strategie di sicurezza informatica. I dipendenti stanno già integrando queste nuove tecnologie nel lavoro quotidiano, quindi le soluzioni di sicurezza non possono limitarsi a bloccarle, ma nemmeno lasciarle proliferare incontrollate.

Dobbiamo trovare il giusto equilibrio tra controlli efficaci e supporto all’innovazione“, dichiara Andrew Harding, VP Marketing di Menlo Security in un’intervista esclusiva a VentureBeat. “L’intelligenza artificiale può aumentare produttività ed efficienza, ma pone anche nuovi rischi. I CISO devono disporre degli strumenti per gestire questa sfida, applicando policy di sicurezza agli strumenti di AI per proteggere l’azienda senza limitare i benefici.

L’uso diffuso dell’IA generativa nelle aziende

Secondo il rapporto di Menlo Security, l’uso dell’AI generativa nelle aziende è cresciuto in modo esponenziale negli ultimi sei mesi. Le visite ai siti che offrono questa tecnologia sono aumentate di oltre il 100%, e gli utenti abituali sono cresciuti del 64%. Questo significa che molti dipendenti stanno utilizzando strumenti di intelligenza artificiale per svolgere le loro attività quotidiane, come scrivere e-mail, generare codice, creare presentazioni e così via.

Le vulnerabilità create dall’IA generativa

Tuttavia, questo uso massiccio dell’AI generativa non è privo di rischi per la sicurezza informatica delle informazioni aziendali. Il rapporto evidenzia due tipi di vulnerabilità principali:

  • La fuga di dati sensibili attraverso il caricamento di file su siti di AI generativa. Il rapporto mostra che i tentativi di upload di file su questi siti sono aumentati dell’80% in sei mesi, a causa dell’aggiunta di nuove funzionalità che consentono l’invio di dati. Questo comporta il rischio che le informazioni aziendali possano essere esposte, rubate o manipolate da terze parti.
  • L’aumento delle truffe di phishing alimentate dall’intelligenza artificiale. Il rapporto avverte che l’AI generativa può essere usata per creare messaggi di phishing più convincenti e personalizzati, che sfruttano le informazioni raccolte dai modelli AI. Questo può portare a furti di credenziali, accessi non autorizzati, ransomware e altri attacchi informatici.

Le strategie di difesa consigliate da Menlo Security

Per contrastare questi rischi, Menlo Security suggerisce alle aziende di adottare delle strategie di difesa efficaci e integrate. In particolare, il rapporto critica l’approccio basato sul dominio, che consiste nell’applicare delle politiche di sicurezza solo ai siti di AI generativa conosciuti. Questo approccio è inefficace, perché non tiene conto dell’emergere di nuove piattaforme, che possono sfuggire al controllo.

Il rapporto raccomanda di usare un approccio basato sulla categoria, che consiste nell’isolare tutti i siti di intelligenza artificiale generativa in un ambiente cloud sicuro e controllato. In questo modo, si impedisce il trasferimento di dati sensaibili tra il dispositivo dell’utente e il sito di IA generativa, e si bloccano i tentativi di phishing in tempo reale. Questo approccio offre una maggiore protezione e una migliore esperienza utente.

Bilanciare sicurezza e innovazione nell’era dell’IA generativa

Secondo gli esperti, sono necessari approcci su più livelli, che includano limiti al copia-incolla, policy di sicurezza, monitoraggio delle sessioni e controlli a livello di gruppo sulle piattaforme di AI generativa, come consiglia Andrew Harding di Menlo Security.

Le organizzazioni possono imparare dalle precedenti rivoluzioni tecnologiche come il cloud, il mobile e il web, che hanno introdotto nuovi rischi intrinseci. Con il tempo, le strategie di cybersecurity si sono adattate. Lo stesso approccio misurato e proattivo è necessario per gestire i rischi emergenti dall’intelligenza artificiale generativa, poiché l’adozione sta rapidamente aumentando. La finestra per agire si sta chiudendo.

Le aziende devono far evolvere velocemente le proprie strategie di sicurezza per gestire al meglio i rischi posti da queste nuove tecnologie rivoluzionarie. Trovare il giusto equilibrio tra sicurezza e innovazione è indispensabile.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 feb 2024
Link copiato negli appunti