L’intelligenza artificiale generativa è ormai presente in numerosi servizi e app. Google ha quindi aggiornato le norme del suo Play Store per chiedere agli sviluppatori Android di rispettare nuove regole e di consentire agli utenti di inviare segnalazioni. Le modifiche entreranno in vigore il 31 gennaio 2024.
Nuove regole per le app IA
Google spiega che i modelli IA possono essere integrati nelle app Android, ma gli sviluppatori devono garantire che i contenuti generati siano sicuri e apportare le necessarie modifiche in base ai feedback ricevuti dagli utenti. Entro il 31 gennaio 2024, le app devono offrire una modalità di segnalazione per i contenuti IA offensivi.
Oltre al rispetto delle regole valide per tutte le app, quelle che generano contenuti IA (testo, immagini, video e audio) devono rispettare regole più stringenti. Sono vietate le app che generano materiale di natura sessuale (deepfake non consensuale), registrazioni vocali o video di persone reali per favorire le frodi, contenuti per favorire comportamenti dannosi (ad esempio attività pericolose, autolesionismo), contenuti correlati alle elezioni che sono manifestamente ingannevoli o falsi, contenuti per favorire bullismo e molestie, documentazione che favorisce comportamenti fraudolenti e codice dannoso (malware).
Google ha inoltre aggiornato altre regole del Play Store. Le nuove norme riducono il tipo di app che può richiedere permessi di accesso a foto e video. Le app che devono accedere a foto e video una tantum o sporadicamente possono usare un selettore di sistema. La novità, che garantisce una maggiore privacy, sarà valida a metà 2024.
Google ha infine comunicato che le notifiche a tutto schermo saranno consentite solo ad un numero limitato di app (ad esempio quelle per le chiamate audio/video) su Android 14 e versioni superiori. Tutte le altre devono chiedere un consenso esplicito all’utente.