Groikipédia, l’encyclopédie controversée d’Elon Musk, s’est-elle glissée en douce dans vos réponses ChatGPT ? Si des milliers d’utilisateurs s’informent sans sourciller grâce à l’intelligence artificielle, savent-ils seulement d’où provient cette information qui façonne leurs opinions au quotidien?
Lorsque xAI, la société d’Elon Musk, a lancé Grokipedia en octobre dernier, de nombreux experts se sont alarmés de la présence de préjugés flagrants et de prises de position très conservatrices. Faut-il s’étonner, alors que Musk reprochait à Wikipédia un parti-pris anti-conservateur, que sa version altère des faits historiques – en allant jusqu’à justifier l’esclavage ou à dénigrer les personnes transgenres ? Les articles de Grokipedia s’avéraient, selon plusieurs enquêtes, parfois copiés directement de Wikipédia, mais aussi truffés de révisions fumeuses mêlant idéologie et pseudoscience. Mais comment ces contenus controversés dépassent-ils la sphère Musk pour s’infiltrer ailleurs sur le web?
Le point de bascule s’opère aujourd’hui : selon The Guardian, ChatGPT – leader mondial des IA conversationnelles – aurait commencé à citer Grokipedia directement dans ses réponses, notamment dans sa version GPT-5.2. Quels risques cette porosité entre des sources aussi différentes entraîne-t-elle pour la fiabilité de l’information générée par l’IA ? Le danger ne réside-t-il pas dans l’impossibilité pour les usagers lambda de distinguer la reproduction neutre d’un fait d’une manipulation subtile du récit?
La prolifération incontrôlée de sources biaisées risque de redéfinir la notion même de vérité à l’ère de l’IA.
Il est intéressant de noter que ChatGPT évite habilement de s’appuyer sur Grokipedia sur les sujets brûlants où ses inexactitudes sont notoires – la crise du VIH/SIDA ou l’insurrection du 6 janvier notamment. Mais doit-on considérer que le problème est évité, si Grokipedia est citée sur des thèmes plus obscurs, où même des affirmations déjà discréditées réapparaissent ? Les machines dérivent-elles vers des territoires de crédulité, par manque d’un garde-fou humain?
Le cas ne se limite pas à ChatGPT : d’autres IA génératives comme Claude d’Anthropic, elles aussi, semblent puiser dans Grokipedia pour certaines questions. L’ampleur du phénomène demeure inconnue, mais il révèle à quel point la guerre de l’information se joue désormais en coulisse, au cœur même des algorithmes qui gouvernent l’accès à la connaissance. Comment OpenAI et ses concurrents assurent-ils la diversité des sources sans tomber dans le relativisme, voire la désinformation?
Face à ces critiques, OpenAI se veut rassurant et affirme vouloir “tirer parti d’une vaste gamme de sources publiquement accessibles et de points de vue variés”. Mais où commence la diversité, et où s’arrête l’objectivité ? Est-il possible, à l’ère des assistants intelligents, de garantir que la pluralité n’est pas un alibi pour normaliser les extrêmes?
Source : Techcrunch



