Anche il machine learning può essere oggetto di attacchi esterni e, dato il ruolo fondamentale che questi processi possono avere in ambiti ad alto investimento, le conseguenze economiche potrebbero essere gravose. Inquinare dati e modelli, infatti, significherebbe modificare le basi di lavoro su cui il machine learning va ad agire, modificandone le risultanze con effetti deleteri. Ecco perché occorre oggi dotarsi di meccanismi difensivi in grado di mettere al riparo gli algoritmi da ogni qualsivoglia ingerenza esterna, ma tutto ciò non è pensabile se non attraverso una vera e propria coalizione tra i maggiori attori del comparto.
Microsoft: in difesa del machine learning
La partnership siglata da alcuni grandi brand va esattamente in questa direzione: Microsoft, IBM, Nvidia, Airbus, Bosch e altri brand facenti parte della Mitre Corporation hanno firmato l’Adversarial ML Threat Matrix, accordo per sviluppare una piattaforma aperta di sicurezza per individuare i pericoli per il mondo del machine learning e coordinare le necessarie reazioni.
Le basi del progetto sono su GitHub. Secondo il parere di Microsoft, il problema è anzitutto quello di una carenza nello scambio informativo su queste minacce: già solo il poter mettere esperienze e competenze a fattor comune potrà fare la differenza. Quando si parla di “apertura”, inoltre, il concetto si estende ad università, industria ed ogni altro ambito interessato (“Stiamo parlando con le aziende Fortune 500, con governi, settore non-profit e piccole e medie imprese“). Quel che si intende costruire è una community vera e propria, in difesa del machine learning e degli investimenti che ogni stakeholder vi infonde all’interno.