Microsoft ha pubblicato un post sul blog ufficiale per descrivere come intende contrastare l’abuso dei tool di intelligenza artificiale generativa. La tecnologia viene sfruttata sempre più spesso per generare deepfake, quindi è necessario implementare misure per proteggere gli utenti e avviare una maggiore collaborazione tra tutti gli attori coinvolti.
Approccio comprensivo e robusto
A fine gennaio sono apparse su X numerose immagini esplicite di Taylor Swift generate con l’intelligenza artificiale. Anche se non è stato confermato l’uso di Microsoft Designer, l’azienda di Redmond ha aggiornato il servizio per bloccare questo tipo di contenuto.
Il Presidente Brad Smith ha evidenziato l’uso crescente dei tool IA per la creazione di deepfake (immagini, audio e video) che possono essere sfruttati per manipolare le elezioni, effettuare frodi finanziarie e compiere azioni moleste tramite pornografia non consensuale. Per contrastare l’abuso della tecnologia sono previsti interventi in sei aree.
La prima misura è ovviamente quella di migliorare la sicurezza dei sistemi IA. Microsoft aggiornerà architettura, modelli e applicazioni per bloccare prompt vietati. Verranno inoltre disattivati gli account degli utenti che cercano di aggirare le protezioni.
Lo standard C2PA (Coalition for Content Provenance and Authenticity), già utilizzato in Microsoft Designer per indicare l’origine delle immagini, verrà esteso a tutti gli altri tool. Inoltre, l’azienda di Redmond identificherà e rimuoverà contenuti ingannevoli sui vari servizi, tra cui LinekdIn.
Per combattere l’abuso dell’IA generativa verrà incrementata la collaborazione con altre aziende del settore, i governi e le forze dell’ordine. Microsoft ritiene però necessarie nuove leggi per proteggere le persone. Infine, gli utenti devono essere istruiti per poter distinguere i contenuti fake da quelli autentici.