Comment les journalistes peuvent-ils s’assurer que les informations qui déferlent chaque jour sur les réseaux sociaux sont bien réelles, à l’ère de l’intelligence artificielle générative ? Cette question mérite d’être posée alors qu’une affaire de « faux lanceur d’alerte » vient d’agiter Reddit, avant de s’effondrer sous le poids des faits.
Tout commence avec un post viral sur Reddit : un utilisateur, se présentant comme développeur pour une grande application de livraison de repas, affirme que son employeur exploite sans vergogne livreurs et clients grâce à des algorithmes biaisés. Pourquoi des accusations aussi graves prennent-elles si vite sur internet ? Surtout, quand on apprend que DoorDash a déjà été condamné à verser 16,75 millions de dollars pour des pratiques frauduleuses, doit-on spontanément croire qu’un nouvel abus est révélé ?
L’histoire devient rapidement sensationnelle. Le message reçoit des dizaines de milliers de votes positifs, inonde d’autres plateformes comme X (anciennement Twitter), et fascine la communauté. Mais qui se cache derrière ce récit, et pourquoi est-il aussi convaincant ? L’auteur prétend rédiger son texte, ivre, depuis une bibliothèque publique, et publie un faux badge UberEats ainsi qu’un “document interne” de 18 pages… à première vue, tout semble crédible. Pourtant, quelques journalistes aguerris s’interrogent : qui prendrait la peine de fabriquer un dossier aussi détaillé, uniquement pour tromper la presse ?
À l’ère de l’IA, un badge élaboré ou un rapport technique ne sont plus des preuves suffisantes d’authenticité.
Casey Newton, journaliste spécialiste du numérique, va vérifier le témoignage — et découvre la supercherie. Grâce à des outils comme SynthID de Google, il identifie que les images partagées sont générées par intelligence artificielle. Cette fois, le canular est démonté. Mais demain, cela sera-t-il aussi facile ?
La prolifération de l’IA rend la vérification plus complexe : photos truquées, dossiers crédibles, manipulations textuelles échappant bien souvent aux détecteurs automatiques. Max Spero, dirigeant d’une société spécialisée dans la détection de textes IA, confirme que de grandes entreprises paient pour générer de l’“engagement organique”… autrement dit, des posts viraux produits artificiellement. Cette industrie souterraine brouille encore davantage la frontière entre vérité et fiction sur internet.
Et quand bien même des outils permettent parfois d’identifier l’intelligence artificielle derrière certains contenus, le mal est souvent déjà fait : le post s’est répandu, a été repris, analysé et discuté, avant d’être discrédité. Combien de lecteurs, de journalistes ou de décideurs auront été abusés entre-temps ?
Avec plusieurs canulars similaires détectés la même semaine sur Reddit, la question demeure brûlante : sommes-nous désormais condamnés à douter systématiquement de tout ce qui surgit sur nos fils d’actualité, en menant notre propre enquête au quotidien ? Jusqu’où la viralité des fausses informations générées par l’IA peut-elle aller, et qui saura distinguer le vrai du faux ?
Source : Techcrunch




