In seguito alle segnalazioni di un ingegnere e dopo l’invio di una lettera alla FTC (Federal Trade Commission) degli Stati Uniti, Microsoft ha aggiornato Copilot Designer (ex Bing Image Creator) per bloccare la generazione di immagini violente, sessuali e illecite. Ora viene mostrato un avviso se l’utente inserisce prompt vietati.
Microsoft blocca i termini vietati
Un ingegnere del software (Shane Jones) aveva verificato che Copilot Designer può generare immagini violente, sessuali e illecite. Il servizio mostra anche immagini che violano il copyright. Dopo le segnalazioni effettuate all’inizio di dicembre 2023 e le lettere inviate ad alcuni senatori e alla FTC, Microsoft ha finalmente migliorato i filtri per bloccare i termini usati per ottenere immagini piuttosto discutibili.
L’indagine effettuata da CNBC aveva infatti confermato la scoperta dell’ingegnere. Copilot Designer generava immagini di incidenti automobilistici, bambini con un fucile, demoni che mangiano bambini, Darth Vader con un trapano accanto alla testa di un bambino, mostri di ogni tipo e personaggi Disney.
Microsoft ha bloccato la maggioranza dei prompt che permettono di generare immagini vietate dal “codice di comportamento”. Gli utenti vedranno questo avviso:
Un portavoce dell’azienda di Redmond ha dichiarato:
Monitoriamo continuamente, apportiamo modifiche e mettiamo in atto controlli aggiuntivi per rafforzare ulteriormente i nostri filtri di sicurezza e mitigare l’uso improprio del sistema.
CNBC ha tuttavia verificato che alcuni prompt non vengono bloccati, come quelli che generano immagini di incidenti e con personaggi Disney. Ciò dimostra che è molto difficile impedire l’abuso dei tool di IA generativa.