This is the sign you've been looking for neon signage

Credits image : Austin Chan / Unsplash

Intelligence ArtificielleRéseaux sociauxSociété
0

La lutte contre la « revenge porn » peut-elle menacer la liberté d’expression et la vie privée ?

Faut-il craindre une arme à double tranchant dans la lutte contre la “revenge porn” et les deepfakes explicites ?

La nouvelle loi américaine « Take It Down Act », saluée comme un juste soulagement pour les victimes de photos intimes non consensuelles, risque-t-elle paradoxalement de menacer la liberté d’expression ou de catalyser des dérives de surveillance ? Si ce texte, fraîchement signé, impose aux plateformes de supprimer en 48 heures des images explicites réelles ou générées par IA à la demande d’une victime, certains défenseurs de la vie privée affirment que ses formulations floues et son application précipitée ouvrent la porte à de nombreux abus.

Comment garantir qu’une plainte n’est pas instrumentalisée pour faire disparaître des contenus légitimes ? En l’absence de vérification formelle de l’identité des victimes — seule une signature physique ou électronique est exigée —, la crainte est vive de voir la censure automatisée primer sur le discernement. L’Electronic Frontier Foundation s’inquiète que la pression juridique incite les plateformes à retirer les contenus sans réelle enquête, de peur d’encourir des sanctions, quitte à sacrifier des discours utiles ou de la représentation de minorités.

La ligne entre protection des victimes et censure arbitraire s’efface-t-elle dangereusement sous couvert d’efficacité ?

L’ambiguïté ne s’arrête pas là : la sénatrice Blackburn, soutien du texte, estime déjà que certains contenus LGBTQ seraient « dangereux pour les enfants ». De quoi suspecter que certaines mouvances conservatrices pourraient détourner la loi à des fins idéologiques. Que feront les grandes plateformes, comme Meta ou Snapchat, pour vérifier l’authenticité d’une requête de suppression sans enfreindre, elles aussi, la vie privée ? Leur silence prolongé inquiète, tandis que Mastodon, plus petit et décentralisé, confie qu’il préférera retirer préventivement un contenu s’il doute de la situation du plaignant.

Le défi est encore plus marqué pour les réseaux décentralisés comme Mastodon, Bluesky ou Pixelfed, dont les serveurs sont souvent gérés par des bénévoles. Sont-ils armés pour gérer des flots de requêtes sous peine d’être assimilés par la FTC à des fraudeurs ou des manipulateurs, même sans but lucratif ? Le contexte institutionnel ajoute à la défiance : à l’heure où la présidence américaine est accusée de vouloir politiser la FTC et de menacer Harvard pour des raisons idéologiques, peut-on croire à une régulation impartiale ?

Côté industrie, l’essor de la modération automatisée par IA pourrait-il devenir la norme, jusque dans nos messageries cryptées ? Les start-up comme Hive, qui collaborent avec Reddit ou BeReal pour détecter les deepfakes et contenus pédopornographiques, installent leurs outils au plus haut niveau de la chaîne de diffusion, ne laissant guère de place à la nuance, voire à la contestation d’une demande. Dès lors, la lutte contre la “revenge porn” ne risque-t-elle pas de justifier une surveillance généralisée, même sur WhatsApp, Signal ou iMessage, pourtant considérés comme des bastions du chiffrement ? Ces entreprises n’ont, pour l’instant, offert aucune clarté sur leur future politique.

La tendance mondiale à la modération massive inquiète au-delà du simple cas américain. Lorsque des responsables politiques n’hésitent plus à réclamer le bannissement de thèmes entiers (avortement, climat, racisme systémique), comment s’assurer qu’aucune cause ni minorité ne devienne victime collatérale de la lutte contre les contenus illicites ? Et à qui bénéficie la pénalisation sans appel d’un Internet jugé « hors de contrôle » ? Face à cette nouvelle ère de censure algorithmique, la question ne se pose-t-elle pas de savoir qui sera vraiment protégé… et qui sera réduit au silence ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.