« Un algorithme entre dans un bar. Le serveur lui demande : “Vous prendrez quelque chose ?” L’algorithme répond : “Montrez-moi d’abord tout ce que vous avez, mais seulement selon vos propres règles.” » Si ce clin d’œil vous fait sourire, préparez-vous : l’Oversight Board de Meta nous offre un feuilleton digne d’un grand prime-time — où la modération n’est jamais vraiment à la carte.
Mardi dernier, l’Oversight Board, ce “super jury” indépendant chargé de surveiller la modération chez Meta, a rendu son verdict sur les nouvelles règles du géant social. Spoiler : ils n’ont pas sorti les confettis. Selon eux, Meta a annoncé ses changements de politique anti-haine à la hâte, “en s’écartant des procédures habituelles”, et, pendant qu’on y est, sans fournir assez d’informations ni mesurer vraiment l’impact sur les utilisateurs vulnérables. Bref, Meta, c’est un peu l’élève pressé qui rend sa copie dix minutes avant la sonnerie, sans relire ni expliquer son raisonnement.
Le Board n’entend pas laisser passer ça et a réclamé à Meta plus de transparence, des bilans semestriels, et un rapport public où l’on parlerait – sans filtre, pour une fois – des vraies conséquences de ces politiques “expéditives”. Cerise sur le gâteau, le groupe pousse Meta à revoir sa politique du fact-checking, notamment hors des États-Unis. Bah oui, la vérité universelle ne se limite pas à un seul fuseau horaire.
L’Oversight Board rappelle à Meta qu’un clic de trop ou de travers peut changer la donne pour les communautés vulnérables du monde entier.
Mais comment en est-on arrivé là ? Petit flash-back : juste avant que Donald Trump ne prenne ses quartiers à la Maison Blanche, Mark Zuckerberg a décidé de libéraliser la parole sur ses réseaux, façon “open-mic” : Facebook, Instagram et Threads ont donc relâché la bride sur la modération du discours de haine, y compris envers les migrants et la communauté LGBTQIA+. Un zeste de “plus de liberté”, mais, hélas, pour certains, c’est surtout plus de risques… et moins de protection.
Pour éviter de tomber dans le “grand n’importe quoi”, l’Oversight Board a glissé à Meta pas moins de 17 recommandations (oui, ils ont fait leurs devoirs !). Ils demandent à la firme de vérifier si son nouveau système de community notes fonctionne vraiment, de préciser sa position sur les idéologies haineuses (parce que “c’est nuancé” n’est pas une excuse valable), et d’améliorer la gestion du harcèlement en ligne. Surtout, le Board rappelle à Meta sa promesse de 2021 : respecter les principes de l’ONU sur les droits humains. On a connu des promesses mieux tenues qu’un statut Facebook, non ?
Petit twist : même si l’Oversight Board ne peut pas changer LE règlement général de Meta, l’entreprise est obligée de suivre ses décisions sur des cas individuels (oui, c’est un peu comme quand votre maman n’est pas la cheffe de la cantine, mais elle décide bien si vous finissez ou non votre assiette). Et si Meta accepte de “référer” certains avis de politique générale à ce Board (ça arrive, mais c’est aussi rare qu’un bug dans une démo Apple), alors, là, ils pourraient vraiment influencer la modération à grande échelle.
Dernier acte : sur 11 affaires récentes (discours anti-migrants, haine contre les personnes en situation de handicap, suppression de voix LGBTQIA+…), le Board a reconnu que les modifications de janvier n’avaient pas bouleversé les décisions. Deux cas américains impliquant des vidéos de femmes trans ? Le contenu reste en ligne, mais ils conseillent de retirer le terme “transgenderism” de la politique anti-haine. Et pour trois publications enflammées après des émeutes au Royaume-Uni en 2024, Meta a été jugé trop lent à réagir contre les contenus de haine.
Morale de l’histoire : chez Meta, on veut jouer la carte du “plus de liberté”, mais pour la sécurité et le respect, mieux vaut garder un as dans la manche… ou un Oversight Board dans la salle d’attente. Finalement, chez Meta, la modération, c’est comme les piments dans un plat : pas assez, c’est fade; trop, ça brûle tout le monde !
Source : Techcrunch