L’ingegnere di Microsoft che aveva segnalato vulnerabilità nel modello DALL-E 3 di OpenAI, usato da Copilot Designer, ha ora avvertito la FTC (Federal Trade Commission), evidenziando che l’azienda di Redmond non ha disattivato il servizio, nonostante la generazione di immagini violente e sessualmente esplicite (deepfake).
Gravi problemi per Copilot Designer
Shane Jones ha lavorato sei anni per Microsoft. Attualmente è un ingegnere del software che testa la tecnologia IA dell’azienda di Redmond per individuare eventuali problemi. All’inizio di dicembre 2023 ha comunicato i risultati delle sue ricerche sia a Microsoft che a OpenAI. Non avendo ricevuto risposta, Jones ha pubblicato una lettera aperta su LinkedIn.
Il team legale dell’azienda di Redmond gli ha ordinato di cancellare il post (cosa che ha fatto). Successivamente ha inviato una lettera ad alcuni senatori e ha incontrato i membri della Commissione Commercio, Scienza e Trasporti del Senato. Ieri ha inviato una lettera alla FTC e al consiglio di amministrazione di Microsoft per evidenziare i rischi associati all’uso di Copilot Designer (ex Bing Image Creator).
L’ingegnere ha verificato che i filtri implementati da Microsoft non funzionano. Il servizio, che sfrutta il modello DALL-E 3 di OpenAI, permette di generare immagini violente e sessualmente esplicite. Può inoltre generare immagini dei personaggi Disney, quindi in chiara violazione del copyright.
Nonostante le segnalazioni, Microsoft non ha sospeso il servizio per eliminare i problemi o almeno indicare che può generare contenuti per adulti. Un portavoce dell’azienda ha dichiarato che esistono canali ufficiali per segnalare eventuali problemi. Dopo un’attenta validazione verranno risolti.