Meta ha introdotto nuove misure di sicurezza su Instagram e Facebook per proteggere gli adolescenti. Da ora in poi, i minori non potranno più ricevere messaggi diretti (DM) da adulti che non conoscono già. L’obiettivo è impedire il contatto da parte di malintenzionati e tutelare la privacy dei più giovani. Con questa modifica, l’azienda di Mark Zuckerberg rafforza le policy per rendere i suoi social network ambienti più sicuri e adatti ai teenager.
Il ruolo dei genitori nella gestione delle impostazioni di Instagram
Meta ha introdotto degli strumenti di supervisione parentale che richiedono l’approvazione dei genitori prima che un adolescente possa modificare alcune impostazioni di Instagram. In particolare, gli utenti minorenni dovranno ottenere il consenso dei genitori per:
- passare da un account privato a uno pubblico;
- visualizzare contenuti più “sensibili”;
- ricevere messaggi da persone che non seguono già sulla piattaforma.
Meta ha dichiarato di voler “proteggere meglio gli adolescenti dai contatti indesiderati” e “rendere più facile per i genitori influenzare l’esperienza online dei propri figli”.
Adolescenti protetti su Instagram
Un’altra misura adottata da Meta riguarda la messaggistica su Instagram. Per i minori, la funzione DM sarà ora chiusa di default a chiunque non sia già connesso su Instagram. Questo significa che gli adolescenti non potranno più ricevere messaggi da persone che non conoscono, a meno che non li accettino esplicitamente.
Questa decisione è stata presa in seguito alle critiche ricevute da Meta da parte di diversi Stati americani, che hanno accusato le sue piattaforme di danneggiare la salute mentale e fisica dei giovani. I procuratori generali di oltre quaranta Stati hanno infatti intentato una causa contro Meta, sostenendo che le sue tecnologie sfruttano e manipolano i consumatori più vulnerabili, esponendoli a rischi di dipendenza, cyberstalking e disturbi alimentari.
L’indagine della Commissione europea su Meta e Snap
Meta non è l’unica società ad essere sotto la lente d’ingrandimento per la protezione dei minori. Anche Snap, la società che gestisce Snapchat, è stata oggetto di un’indagine da parte della Commissione europea, che ha voluto verificare le misure adottate per salvaguardare la salute fisica e mentale degli adolescenti. L’indagine segue un’iniziativa simile rivolta a TikTok e YouTube, le altre due piattaforme più popolari tra i giovani.