Gaia Bottà

MIT, AI per la cybersicurezza

AI2 è un sistema di machine learning che macina log su log alla ricerca di anomalie da sottoporre agli analisti umani. Con il loro feedback, a loro volta, contribuiscono ad addestrare l'intelligenza artificiale

Roma - Prevedere i cyberattacchi studiando i cyberattacchi, associando l'analisi di un'infinità di log effettuata a mezzo algoritmi con la valutazione degli esperti, così da addestrare il sistema a riconoscere nuovi scenari e fare in modo che le situazioni di pericolo vengano riconosciute come tali. I ricercatori del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, in collaborazione con la statup PatternEx, specializzata in machine learning, hanno presentato AI2, piattaforma in grado di combinare l'intelligenza artificiale (AI) con la cosiddetta "Analyst Intuition", la capacità degli esperti di elaborare degli schemi ricorrenti che si associno alle anomalie.

AI2

AI2, spiegano i ricercatori, contribuisce a prevedere i cyberattacchi analizzando grandi quantità di log web e generati dai firewall e individuando pattern significativi che caratterizzano le attività sospette: il sistema di machine learning, testato su sistemi di aziende che hanno collaborato alla ricerca, opera autonomamente nelle fasi di analisi dei dati e nelle fasi di individuazione dei pattern, basandosi su parametri incentrati sulla attività degli indirizzi IP, sulle attività associata agli utenti, sulle sessioni, aggregando dati in diversi intervalli temporali per fare emergere modelli di comportamento rilevanti e variazioni rispetto ai modelli di comportamento ordinari.

Il sistema si interfaccia poi con gli esperti di sicurezza umani, che offrono il loro feedback riguardo alla pericolosità degli eventi rilevati come attacchi. Questa compresenza del fattore umano consente all'AI di affinare le proprie rilevazioni e di elaborare nuovi modelli, così da individuare i rischi in maniera sempre più rapida ed efficiente.

AI2, nei test effettuati fino ad ora per un periodo di tre mesi su 3,6 miliardi di log forniti da una non meglio precisata piattaforma di e-commerce, è riuscita ad individuare l'85 per cento degli attacchi, riducendo altresì di cinque volte il numero dei falsi positivi.
In questo modo, spiega Kalyan Veeramachaneni del CSAIL, "possiamo mostrare agli analisti umani un massimo di 200 o addirittura 100 eventi al giorno, che è una piccola percentuale di quello che succede": il contributo dei ricercatori di sicurezza umani, con la selezione a monte operata da AI2, viene ridotto al minimo indispensabile. Ma non è superfluo: "Gli attacchi evolvono costantemente - osserva Veeramachaneni - e abbiamo bisogno degli analisti per continuare a classificare i nuovi attacchi. Questo sistema non fa a meno degli analisti. Offre loro supporto".

Gaia Bottà
Notizie collegate
  • TecnologiaGoogle TensorFlow, ora con supporto al computing distribuitoMountain View rilascia una nuova versione della propria piattaforma di intelligenza artificiale aggiungendo il supporto al computing distribuito, caratteristica in grado di accelerare in maniera esponenziale la velocità di calcolo
  • TecnologiaFacebook, AI per immagini accessibiliIl social network impiega le proprie tecnologie per creare delle descrizioni automatiche da associare alle immagini condivise. Per il momento Facebook si rende più accessibile agli utenti di alcuni paesi anglofoni, su iOS
  • TecnologiaMinecraft, la AI a blocchi di MicrosoftRedmond ha annunciato un nuovo progetto di ricerca per le intelligenze artificiali basato sull'impiego del mondo virtuale tutto pixel e blocchi distruggibili, un sistema che verrà presto offerto sotto licenza FOSS