Un colosso dei social network prova a garantire un ambiente online sicuro per tutti, senza limitare eccessivamente la libertà individuale.
In un mondo sempre più connesso, dove i confini tra reale e virtuale sfumano sempre di più, la sicurezza degli utenti è un dettaglio che aziende tech e istituzioni devono sempre più tenere in grande considerazione. Le piattaforme social hanno trasformato il modo in cui interagiamo, lavoriamo e viviamo, offrendo straordinarie opportunità di connessione. D’altra parte, però, queste stesse piattaforme sono diventate terreno fertile per nuove forme di pericolo, specialmente per i più giovani. È in questo contesto che l’introduzione di nuove misure di sicurezza si è resa non solo opportuna, ma necessaria.

Il dibattito su privacy, sicurezza e protezione dei minori sui social network non è certo una novità. Negli ultimi anni, abbiamo assistito a diversi aggiornamenti normativi e cambiamenti delle policy interne delle piattaforme, tutti provvedimenti volti a contrastare i pericoli che l’uso improprio dei social può comportare. La novità, oggi, sta nella modalità con cui queste misure vengono implementate in un ambiente molto particolare, quello dei visori per la realtà aumentata.
Le nuove regole di Meta non faranno piacere agli utenti più piccoli
Recentemente, Meta ha annunciato l’introduzione di controlli di verifica dell’età per gli utenti delle sue piattaforme VR, una mossa che sottolinea la crescente preoccupazione per la sicurezza online nei mondi virtuali. I social network della società, come Facebook o Instagram, possono infatti essere utilizzati anche sui visori VR dell’azienda, come il celebre Meta Quest. Questa recente decisione mira a rafforzare le misure di protezione dei minori proprio in questo ambito.

Con l’evolversi della tecnologia VR e la sua capacità di offrire esperienze immersive sempre più realistiche, cresce anche la consapevolezza dei potenziali rischi associati, tra cui la possibilità di esposizione a contenuti non adatti e il rischio di comportamenti dannosi, come il cyberbullismo.
Per gli utenti di età compresa tra i 10 e i 13 anni, Meta ha quindi introdotto la figura dell’account preadolescente, gestito direttamente dai genitori. Questa tipologia di account prevede impostazioni di privacy rafforzate, con la possibilità per i genitori di monitorare e controllare l’utilizzo delle app e l’accesso ai contenuti. Oltre a questo, la piattaforma ha deciso di impostare di default i profili degli utenti minori di 18 anni in modalità privata.
Queste misure si inseriscono in un contesto più ampio di riflessione sui danni che l’interazione non regolamentata sui social può provocare, soprattutto ai più giovani. Numerosi studi hanno evidenziato come l’uso eccessivo dei social media possa avere impatti negativi sullo sviluppo, sulla salute mentale e sul benessere generale degli adolescenti. La decisione di Meta di rafforzare i controlli di accesso riflette dunque la crescente volontà di proteggere i minori, soprattutto in un ambiente digitale in così rapida evoluzione.