Il potenziale dell’IA, in particolare dell’IA generativa, è immenso. Tuttavia, nel perseguimento del progresso all’interno di queste nuove frontiere dell’innovazione, sono necessari chiari standard di sicurezza del settore per costruire e implementare questa tecnologia in modo responsabile.
Queste sono le parole con cui Google ha aperto il suo ultimo post sul blog ufficiale, presentando il Secure AI Framework (SAIF), un framework concettuale per sistemi d’intelligenza artificiale sempre più sicuri, affinché aziende, privati e istituzioni possano utilizzare e sviluppare soluzioni IA non pericolose per la società. Andiamo a scoprire i punti fondamentali di questa nuova ossatura.
Google presenta nuovo framework per le IA
SAIF nasce ispirandosi alle migliori pratiche di sicurezza già applicate nel settore, dal controllo degli sviluppatori alla fase di test e review finale pre-lancio di soluzioni IA avanzate. Un framework di questo tipo funge da quadro per garantire che gli attori salvaguardino la tecnologia e non cedano alla tentazione dell’eccesso, del potenziale dell’intelligenza artificiale nella generazione e gestione di contenuti.
Per questo motivo, SAIF si compone di sei principi:
- Espandere solide basi di sicurezza all’ecosistema AI: basarsi su misure di protezione dell’infrastruttura sin dalla sua nascita, per impostazione predefinita, sviluppando al contempo competenze organizzative per stare al passo con i progressi dell’IA e adattare le protezioni stesse all’intelligenza artificiale e ai modelli in continua evoluzione
- Includere l’IA tra le minacce per un’organizzazione: per rispondere in maniera tempestiva ai rischi dell’IA bisogna dotarsi di strumenti e personale capaci di monitorare continuamente gli incidenti informatici correlati all’intelligenza artificiale e intervenire il prima possibile, avviando collaborazioni con team di esperti in cybersecurity e politiche IA
- Automatizzare le difese per tenere il passo con le minacce esistenti e nuove: le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. Dunque, è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili e convenienti nella protezione contro di esse
- Armonizzare i controlli per garantire una sicurezza coerente: serve una maggiore coerenza tra i framework di controllo per mitigare i rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti, garantendo lo sviluppo di protezioni scalabili ed efficienti
- Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per l’implementazione dell’IA: il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Bisogna quindi includere tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti, l’aggiornamento dei set dei dati ed esercitazioni regolari su comportamenti anomali
- Contestualizzare i rischi dei sistemi IA nei processi aziendali: le valutazioni dei rischi vanno effettuate con cautela per prendere decisioni informate, sviluppando strumenti automatizzati per convalidare le attività dell’IA a seconda dei contesti d’uso e dei determinati tipi di applicazioni
Google, dunque, in tale ottica promette di condividere ogni scoperta sulle IA con team come Mandiant e TAG; espandere i programmi di Bug Hunting; offrire soluzioni sicure con partner come GitLab e Cohesity; e supportare l’industria, le organizzazioni, i clienti e i governi nell’affrontare le minacce IA.