close-up photography of Information signage

Credits image : Roman Kraft / Unsplash

Intelligence ArtificielleRéseaux sociauxSociété
0

Meta peut-il vraiment endiguer la manipulation des contenus IA sur ses plateformes ?

Peut-on encore vraiment faire confiance à Meta pour distinguer le vrai du faux quand l’intelligence artificielle s’invite massivement sur ses plateformes ? Voici la question qui préoccupe aujourd’hui experts et utilisateurs alors que le contenu généré ou manipulé par l’IA explose sur Facebook, Instagram ou Threads. Jusqu’où va la vigilance du géant des réseaux sociaux face aux dangers de la désinformation ?

Déjà, l’an dernier, le Conseil de surveillance de Meta sonnait l’alerte en qualifiant l’approche du groupe envers les contenus altérés d’« incohérente ». Rebelote ce mois-ci : la même instance vient de pointer à nouveau l’incapacité de Meta à appliquer ses propres règles de modération de manière claire et juste. Pourquoi cette incapacité à instaurer une politique rigoureuse, surtout après un précédent impliquant la diffusion virale d’une vidéo manipulée de Joe Biden, qui avait déjà poussé Meta à promettre plus de transparence via un étiquetage renforcé ?

Meta s’était alors engagé à apposer des labels visibles sur les contenus à « haut risque », notamment ceux générés ou modifiés par l’IA. Mais la promesse est-elle tenue ? Le Conseil de surveillance en doute sérieusement et s’inquiète que, malgré la multiplication des manipulations sur différents formats, l’algorithme de Meta ne parvienne même pas à apposer systématiquement ce fameux label sur toutes les publications similaires. Pourquoi, en 2024, une telle inconstance qui ouvre la porte à la confusion, voire à la manipulation de masse ?

Face à la montée en puissance de l’IA, l’incapacité de Meta à modérer efficacement ses contenus devient un enjeu de société.

L’affaire mise en avant cette fois-ci concerne un audio douteux circulant au Kurdistan irakien, où deux hommes politiques discuteraient de fraudes électorales. Saisie après la diffusion de l’extrait, Meta a clos le dossier sans examen par un humain – avant de finalement apposer un label sur certains exemplaires du son, mais pas celui qui avait déclenché l’alerte. Faut-il s’étonner qu’une entreprise aussi technologique affirme ne pas pouvoir identifier automatiquement les contenus manipulés hors des images statiques ? Est-ce crédible, ou s’agit-il d’un manque de volonté ?

Le Conseil de surveillance ne mâche plus ses mots : pourquoi une entreprise équipée de telles ressources externalise-t-elle la chasse aux faux contenus à des médias ou partenaires externes alors qu’elle revendique son expertise en IA ? Ce manque d’automatisation ne risque-t-il pas de favoriser la prolifération de fausses informations, en particulier dans des contextes politiques sensibles ?

Les recommandations du Conseil sont claires : Meta doit définir une procédure permettant d’étiqueter systématiquement contenus identiques ou similaires, et rendre ces marquages accessibles dans la langue utilisée par l’internaute sur tous ses services. Reste à voir comment l’entreprise – qui n’a pour l’heure pas répondu aux critiques – réagira dans les 60 jours impartis.

Les utilisateurs, eux, peuvent-ils toujours avoir confiance dans la capacité de Meta à protéger l’espace public numérique et garantir l’intégrité de l’information face à l’intelligence artificielle proliférante ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.