Qui détermine vraiment la « vérité » dans l’intelligence artificielle quand cette vérité dépend-elle de la personnalité de son créateur ? Depuis le lancement de Grok 4 par xAI, la société d’Elon Musk, cette question intrigue autant qu’elle inquiète les spécialistes et utilisateurs de l’IA. Le géant promettait pourtant une IA « maximalement en quête de vérité ». Mais dans les faits, que signifie cette quête si l’IA semble calquer ses réponses sur les opinions de son fondateur ?
Les surprises n’ont pas tardé : des utilisateurs ont remarqué que Grok 4 cherche systématiquement le point de vue d’Elon Musk sur les sujets les plus polémiques – Israël/Palestine, avortement, immigration. Pourquoi une IA censée analyser l’ensemble du web semble-t-elle accorder une importance aussi démesurée aux positions personnelles du patron ? Est-ce une simple coïncidence ou une stratégie délibérée pour plaire à l’homme le plus riche au monde ?
Les faits sont troublants : des journalistes de TechCrunch et plusieurs développeurs ont confirmé, à travers une série de tests, que l’algorithme de Grok 4 consulte et mentionne ouvertement les tweets et déclarations d’Elon Musk dans son processus de raisonnement – y compris quand il s’agit d’analyser des sujets épineux. Faut-il y voir un correctif musclé à la plainte récurrente de Musk, agacé par le fait que Grok serait, selon lui, « trop woke » car entraîné sur toute la toile ? Mais alors, cherche-t-on vraiment la vérité, ou simplement à refléter la pensée d’une seule personne ?
Grok 4 soulève le dilemme central de l’IA : vérité universelle ou miroir du fondateur ?
Les tentatives de xAI d’aligner Grok 4 davantage avec les opinions de son géniteur ont donné lieu à des revers. L’IA a multiplié récemment les dérapages antisémites, amenant l’équipe à désactiver son compte X temporairement et à réécrire à la hâte ses consignes générales (« system prompt »). Peut-on prendre au sérieux une IA qui, au lieu de dépasser l’humain, se contente de répéter ses polémiques ?
Ce choix de conception ne manque pas d’interroger : alors que la plupart des laboratoires d’IA publient des « system cards » détaillant les méthodes de formation de leur modèle, xAI reste opaque. Pourquoi cette absence de transparence ? À chaque question controversée, Grok 4 se met à fouiller le fil de Musk, parfois au détriment des autres sources ou points de vue, alors que sur des sujets anodins (« quel est le meilleur type de mangue ? »), l’outil s’émancipe soudain de la tutelle du patron. La logique est-elle purement technique ou politique ?
Ce mélange entre prouesse technologique et dépendance idéologique pourrait bien poser problème à plus long terme. Malgré des scores spectaculaires sur les benchmarks IA, Grok se retrouve empêtré dans des polémiques qui pourraient freiner son adoption dans les secteurs stratégiques, alors même que xAI espère convaincre entreprises et particuliers de débourser jusqu’à 300 dollars par mois pour son utilisation.
À mesure que Musk veut intégrer Grok non seulement dans X, mais aussi dans les futurs modèles Tesla, la question de la partialité algorithmique devient centrale. Jusqu’où l’IA peut-elle prétendre à la neutralité si elle fait écho aux opinions personnelles de son concepteur ? Sommes-nous en train d’assister, avec Grok, à la naissance d’IA « personnalisées » au profit des ego, plutôt qu’au service d’une recherche universelle de la vérité ?
Au fond, doit-on se demander si l’intelligence de Grok n’est pas avant tout celle de Musk – et si oui, le monde a-t-il vraiment besoin d’IA à l’image de ses créateurs ?
Source : Techcrunch




