La Commissione europea ha inviato a Microsoft una richiesta di informazioni sui tool di intelligenza artificiale generativa. Lo scopo è verificare se l’azienda di Redmond ha violato il Digital Services Act (DSA) con le funzionalità IA del motore di ricerca, ovvero Bing Chat e Bing Image Creator, oggi note come Copilot e Copilot Designer.
Risposta entro 10 giorni per evitare la multa
Lo scorso 14 marzo erano state inviate richieste di informazioni in merito all’IA generativa a sei aziende (Alphabet, Microsoft, X, Snap, Meta e ByteDance) che offrono sei VLOP (Very Large Online Platform) e due VLOSE (Very Large Online Search Engine), ovvero YouTube, Google Search, Bing, LinkedIn, X, Snapchat, Facebook, Instagram e TikTok.
Per Microsoft si tratta dunque della seconda richiesta sullo stesso argomento (la terza in totale da gennaio). La Commissione ha chiesto all’azienda di fornire altri documenti interni non allegati alla precedente risposta.
Il sospetto è che Bing possa aver violato il DSA per i rischi associati all’IA generativa, tra cui allucinazioni, diffusione di deepfake e manipolazione dei servizi che può ingannare gli elettori. In base alla legge è obbligatorio effettuare la valutazione di rischi e adottare adeguate misure di mitigazione. L’IA generativa è uno dei rischi identificati nelle linee guida sull’integrità dei processi elettorali.
Microsoft deve rispondere entro il 27 maggio. Se la scadenza non verrà rispettata, la Commissione potrebbe infliggere una multa fino all’1% delle entrate globali annuali e multe periodiche fino al 5% delle entrate medie giornaliere. Stavolta sono quindi previste sanzioni prima dell’eventuale avvio dell’indagine formale.
Un portavoce di Microsoft ha dichiarato:
Abbiamo collaborato pienamente con la Commissione europea nell’ambito della richiesta volontaria di informazioni e continuiamo a impegnarci a rispondere alle loro domande e a condividere di più sul nostro approccio alla sicurezza digitale e al rispetto del DSA. In tutta la nostra vasta gamma di servizi online adottiamo misure per misurare e mitigare i potenziali rischi. Ciò include una serie di azioni per preparare i nostri strumenti per le elezioni del 2024 e contribuire a salvaguardare gli elettori, i candidati, le campagne e le autorità elettorali. Continueremo inoltre a collaborare con i nostri colleghi del settore nell’ambito del Tech Accord per combattere l’uso ingannevole dell’intelligenza artificiale nelle elezioni del 2024.