Comment Meta pourrait-il intentionnellement cibler les jeunes tout en négligeant leur sécurité? Des documents récemment dévoilés dans le cadre d’un procès intenté par le Ministère de la Justice du Nouveau-Mexique contre Meta et son PDG, Mark Zuckerberg, révèlent une réalité alarmante: la société savait que de nombreux contenus inappropriés et à caractère sexuel circulaient entre adultes et mineurs sur ses plateformes de messagerie.
Les employés de Meta ont-ils tiré la sonnette d’alarme en interne quant à l’exploitation des enfants et des adolescents sur les messageries privées de l’entreprise? Les documents indiquent que bien que consciente des risques, notamment sur Messenger et les DM d’Instagram, pour ses utilisateurs mineurs, Meta aurait négligé voire bloqué l’implémentation de fonctionnalités de sécurité jugées non rentables. Est-ce admissible?
La priorité de Meta envers les enfants était-elle plus commerciale que sécuritaire?
Qu’en est-il des accusations selon lesquelles Meta et Zuckerberg auraient facilité l’exploitation sexuelle des enfants par des prédateurs? Le procureur général du Nouveau-Mexique, Raúl Torrez, a récemment exprimé ses inquiétudes quant à l’implémentation de la protection par chiffrement de bout en bout pour Messenger, une mesure susceptible de compliquer davantage la détection des activités d’exploitation des enfants. Comment Meta peut-il contrer ces accusations tout en roulant le déploiement de telles fonctionnalités?
En quoi la stratégie de Meta visant à devenir « l’application de messagerie principale pour les enfants aux États-Unis d’ici 2022 » rend-elle sa responsabilité encore plus flagrante face aux risques d’exploitation sexuelle des jeunes utilisateurs? Les communications internes de 2021 estimaient à 100 000 le nombre d’enfants harcelés sexuellement chaque jour sur ses plateformes, recevant notamment des contenus explicites. Les discussions internes chez Meta révèlent-elles une conscience des problèmes sans une volonté concrète de les résoudre?
Meta a-t-il failli à modérer le contenu à caractère sexuel impliquant des mineurs (CSAM) malgré des rapports alarmants? Divers documents internes montrent que bien que les protections nécessaires existent sur Facebook, elles n’étaient pas prioritaires sur Instagram. Comment une entreprise aussi puissante peut-elle justifier un tel manque de proactivité malgré les données internes montrant que les activités de « grooming » étaient deux fois plus fréquentes sur Instagram que sur Facebook?
Quelle est la responsabilité de Meta face à l’écrasante majorité des rapports de CSAM soumis au CyberTipline du National Center for Missing & Exploited Children (NCMEC) en 2022? Avec plus de 3 milliards d’utilisateurs actifs quotidiennement, n’est-ce pas le reflet d’un échec systémique chez Meta qui, malgré la suppression de réseaux pédophiles et l’ajustement de ses algorithmes, continue de voir persister des contenus et des comptes problématiques sur ses plateformes?
Face à toutes ces questions et malgré une autre poursuite des procureurs généraux de 42 États des États-Unis concernant l’impact des plateformes de Meta sur la santé mentale des enfants, comment Meta compte-t-il renforcer la protection des plus jeunes et réagir aux preuves accablantes de ses failles en matière de sécurité enfantine? Ne serait-il pas temps que la société prenne des mesures plus efficaces pour prévenir les abus plutôt que de répondre aux critiques après coup?
Source : Techcrunch