Google ha recentemente pubblicato nuove linee guida per gli sviluppatori che realizzano applicazioni AI distribuite tramite Google Play. L’obiettivo principale di queste direttive è ridurre la presenza di contenuti inappropriati e vietati sullo store.
Requisiti per le app di intelligenza artificiale
Secondo le nuove linee guida, le app che offrono funzioni di intelligenza artificiale dovranno:
- Impedire la generazione di contenuti riservati, tra cui materiale sessuale, violento o comunque inappropriato.
- Fornire agli utenti un sistema per segnalare eventuali contenuti offensivi riscontrati.
- Essere sottoposte a rigorosi test da parte degli sviluppatori per garantire il rispetto della sicurezza e della privacy degli utenti.
Inoltre, Google vieterà la presenza su Google Play di app che promuovono casi d’uso inappropriati, come la generazione non consensuale di immagini di nudo o la possibilità di “spogliare” le persone tramite l’AI, indipendentemente dalle reali capacità dell’app stessa. Se il materiale pubblicitario, infatti, afferma che l’app è in grado di eseguire queste azioni, potrebbe essere in ogni caso bandita da Google Play.
Contrastare la diffusione di contenuti inappropriati generati dall’AI
Queste nuove linee guida arrivano in un momento in cui la diffusione di app che spogliano le persone tramite l’intelligenza artificiale sta diventando una vera e propria piaga sui social media. Rapporti recenti hanno evidenziato la presenza di annunci su piattaforme come Instagram che promuovono app in grado di generare nudi falsi con l’intelligenza artificiale, spesso utilizzando immagini di personaggi famosi e slogan inappropriati. Sia Apple che Google hanno già rimosso alcune di queste app dai loro rispettivi app store, ma il problema persiste.
Il problema non si limita ai social media, ma sta interessando anche le scuole di tutti gli Stati Uniti. Si segnalano, infatti, casi di studenti che diffondono deepfake a sfondo sessuale di compagni o insegnanti a scopo di bullismo e molestie. Questo fenomeno riguarda persino gli studenti delle scuole medie. La situazione ha raggiunto livelli preoccupanti, come dimostrato dal recente arresto a Baltimora in seguito alla diffusione di un deepfake razzista che ritraeva un preside di scuola.
L’impegno di Google per un ecosistema di app sicuro e rispettoso
Con l’introduzione di queste nuove politiche, Google intende escludere da Google Play le app con contenuti generati dall’intelligenza artificiale potenzialmente dannosi o inappropriati per gli utenti. L’azienda fa riferimento alla propria Politica sui contenuti generati dall’AI per verificare i requisiti necessari all’approvazione delle app sullo store.
Gli sviluppatori avranno la responsabilità di proteggere le proprie app per impedire che gli utenti manipolino intenzionalmente le richieste inviate ai modelli AI al fine di ottenere risposte inappropriate o vietate. e Google suggerisce l’utilizzo della funzione di test chiuso per condividere le prime versioni delle app con gli utenti e ottenere feedback.
L’azienda suggerisce agli sviluppatori di effettuare e documentare accuratamente i test prima del lancio, poiché potrebbe richiederne la revisione in futuro. Per supportare ulteriormente gli sviluppatori nella creazione di app di intelligenza artificiale sicure e rispettose, Google sta pubblicando risorse e best practice aggiuntive, come la guida People + AI.