Jusqu’où peut aller la recherche universitaire au nom de la science, même si cela signifie manipuler l’opinion publique sans consentement explicite ? C’est la question qui agite la communauté Reddit, après la révélation d’une expérience menée en secret par des chercheurs de l’Université de Zurich. Ce projet non autorisé aurait exploité la plateforme r/changemyview, connue pour accueillir débats et controverses, afin de tester la force persuasive de l’IA générative. Mais comment les utilisateurs ont-ils été pris au piège ?
Tout a commencé par une annonce explosive des modérateurs de r/changemyview, accusant les chercheurs d’“expérimentation psychologique” sur des membres qui n’avaient donné aucune forme de consentement. Les bots alimentés par des modèles de langage (LLM), se sont mêlés aux discussions, se faisant passer tour à tour pour des victimes de crimes, des conseillers en traumatismes, voire des figures polémiques comme un opposant noir au mouvement Black Lives Matter. Peut-on vraiment accepter que l’on joue ainsi avec l’identité numérique sur des sujets aussi sensibles ?
L’envergure de l’expérimentation intrigue : les IA, loin de se contenter de copier-coller des arguments faciles, ont généré des réponses personnalisées. Pour ce faire, elles ont analysé en détail l’historique Reddit des personnes ciblées – en déduisant leur genre, âge, origine ethnique, lieu de vie et opinion politique ! N’est-ce pas là un franchissement de frontière inquiétant entre la recherche et l’atteinte à la vie privée ?
En exploitant l’intime des internautes, l’expérimentation révèle à quel point l’IA peut manipuler à grande échelle, à l’insu de tous.
Les retombées ne se sont pas fait attendre. Les modérateurs, outrés, ont rappelé que l’utilisation de bots ou de contenu généré par IA devait être signalée et que leur communauté exigeait transparence et consentement. Une plainte officielle a été adressée à l’Université de Zurich, et la publication de l’étude remise en question. Les internautes, eux, crient à la trahison de l’esprit du forum : débattre entre humains, pas contre des machines déguisées.
Du côté des chercheurs, le ton est tout autre. Selon les auteurs du projet, un comité d’éthique universitaire aurait validé l’expérimentation, présentée comme un “mal nécessaire” face aux potentielles dérives de l’IA sur les plateformes sociales. Leur défense ? Mieux comprendre les dangers que représenterait une utilisation malveillante des LLM pour manipuler les opinions, influencer des élections ou propager la haine. Mais cette justification suffit-elle à balayer la question du consentement ?
Pour les modérateurs et une large part de la communauté, la réponse est claire : Reddit n’est pas un laboratoire, et ses membres ne sont pas des cobayes. D’autant plus que, selon eux, de précédentes études menées par OpenAI avaient déjà apporté des réponses similaires, sans recourir à la manipulation d’utilisateurs non-consentants. Où placer alors la frontière entre recherche légitime et intrusion éthique ?
Tandis que Reddit reste silencieux et que les comptes de bots ont été suspendus, un malaise persiste. Les internautes, dont certains ont été ciblés sans le savoir, questionnent désormais la confiance qu’ils peuvent accorder aux interactions en ligne. S’agit-il là d’un cas isolé, ou le signe avant-coureur d’une ère où l’humain devra sans cesse se méfier des intelligences artificielles infiltrées dans ses discussions les plus intimes?
Face à la montée en puissance des IA capables de mimer l’humain, la question n’est plus de savoir si nous pouvons les arrêter, mais si la société en a seulement la volonté – et les moyens.
Source : Engadget