boy in orange and black jacket wearing red helmet holding black dslr camera

Credits image : Vitolda Klein / Unsplash

OrdinateursRéseaux sociauxSociété
0

La sécurité des enfants sur X : des progrès réels ou une simple mise en scène?

Est-il possible que X, dans sa récente transformation, soit parvenu à renforcer suffisamment ses mesures de sécurité pour protéger efficacement les enfants en ligne? Avant une audience importante du Congrès sur la protection des mineurs dans le monde numérique, X a annoncé la création d’un nouveau centre de «Confiance et Sécurité» au Texas, pour lequel il embauchera une centaine de modérateurs de contenu à temps plein. Mais n’est-ce pas là une réaction tardive, surtout après que Musk ait réduit drastiquement l’effectif de l’entreprise, y compris les équipes de confiance et de sécurité?

Linda Yaccarino, PDG de X, s’est entretenue la semaine dernière avec des membres bipartisans du Sénat, y compris la sénatrice Marsha Blackburn. Ont-ils réussi à trouver des pistes concrètes pour lutter contre l’exploitation sexuelle des enfants (CSE) sur leur plateforme? La question persiste, notamment lorsque l’on sait que l’entreprise, sous le nom de Twitter, a connu des difficultés pour modérer correctement le contenu lié au CSE.

Et si les intentions de Musk étaient louables, le problème de l’exploitation n’a-t-il pas plutôt empiré sous sa direction? Bien qu’il ait promis que lutter contre le contenu CSE était sa priorité numéro un, des rapports de 2022 révèlent l’existence de publications où l’on demande ce type de contenu. Les décisions prises par Musk, comme le retour d’un compte auparavant banni pour distribution d’images CSE, soulèvent des inquiétudes quant à l’application réelle des politiques de X. Comment ces contradictions influent-elles sur la perception du public envers l’engagement de l’entreprise à combattre cette problématique?

Malgré la promesse de Musk, des rapports indiquent que les problèmes liés au contenu CSE persistent et que les mesures prises soulèvent des questions quant à leur efficacité.

Toutefois, les détails concernant le nouveau centre de modération annoncé sont maigres. Quand ouvrira-t-il exactement? Les modérateurs, bien qu’embauchés à temps plein, seront-ils suffisants et correctement formés pour relever un défi aussi colossal? Ces informations restent floues et laissent les observateurs dans l’incertitude.

Joe Benarroch, un cadre de X, a déclaré que bien que X n’ait pas de ligne de service destinée aux enfants, il est essentiel de réaliser ces investissements pour éviter que les contrevenants utilisent la plateforme à des fins malveillantes. Est-ce un signe que l’entreprise commence à prendre au sérieux la protection des plus vulnérables ou est-ce simplement une opération de relations publiques stratégique?

En publiant un billet de blog détaillant ses progrès dans la lutte contre le CSE, X a affirmé avoir suspendu 12,4 millions de comptes pour CSE en 2023, contre 2,3 millions en 2022, et envoyé 850 000 signalements au Centre national pour les enfants disparus et exploités (NCMEC). Mais cette augmentation est-elle révélatrice d’un effort accru de l’entreprise ou indique-t-elle que X est devenu un refuge encore plus grand pour ceux qui partagent du contenu CSE? Les chiffres seuls peuvent-ils vraiment témoigner de l’efficacité de la lutte contre le partage de contenus aussi nuisibles?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.