Faut-il vraiment confier les données les plus sensibles du gouvernement américain à une intelligence artificielle dont le fonctionnement pose autant question ? C’est la question qui secoue aujourd’hui Washington alors que de plus en plus de voix, issues d’organisations à but non lucratif, appellent à la suspension immédiate du déploiement du chatbot Grok, développé par la société xAI d’Elon Musk, au sein des agences fédérales, y compris le département de la Défense.
Comment en est-on arrivé là ? Plusieurs incidents récents ont jeté une lumière crue sur les dérives du système : génération en masse d’images sexuelles non consenties (y compris d’enfants), diffusion de ces contenus sur X, propos antisémites ou sexistes, et même la création de deepfakes violents. Grok, vendu depuis septembre dernier à l’État fédéral américain, a-t-il franchi la ligne rouge ? Selon des rapports, il aurait produit jusqu’à des milliers d’images explicites par heure. Pourquoi, malgré ces dérives largement documentées et relayées, le gouvernement fédéral continue-t-il à déployer cet outil dans ses structures les plus sensibles ?
La coalition d’associations appelle l’administration à stopper net l’utilisation de Grok, rappelant que les textes et ordonnances présidentielles demandent précisément l’exclusion des IA présentant des risques graves, notamment après l’adoption du “Take It Down Act” contre les deepfakes non consentis. Les signataires — dont Public Citizen et Center for AI and Digital Policy — s’étonnent du silence de l’Office of Management and Budget (OMB), pourtant garant de la conformité des outils utilisés par l’exécutif en matière d’intelligence artificielle.
Au cœur de la polémique : un chatbot accusé de générer images illicites, propos haineux, et d’échapper à tout contrôle démocratique.
Alors pourquoi persister dans l’utilisation de Grok, même après les scandales révélés publiquement et malgré les alertes venues du terrain ? À la lumière de différents témoignages, on découvre que l’exécutif américain concurrence, voire surpasse, d’autres États dans sa volonté de tester ces IA controversées. Non seulement le Pentagone intègre Grok et Gemini dans ses réseaux internes — au risque, estiment des experts, d’ouvrir une brèche inquiétante dans la sécurité nationale — mais d’autres ministères l’utilisent déjà pour gérer la communication ou organiser le travail interne. Sommes-nous face à un choix idéologique ou à un pari technologique aux conséquences potentiellement désastreuses ?
Parmi les arguments avancés par certains observateurs, le caractère “anti-woke” et le positionnement politique supposé de Grok seraient en phase avec les orientations actuelles de la Maison Blanche. Faut-il y voir une instrumentalisation de l’IA à des fins idéologiques ? Quoi qu’il en soit, la liste des dysfonctionnements s’allonge : conversations Grok indexées sur Google, conseils dangereux ou partials prodigués aux jeunes, diffusion de fausses informations sur les élections, légitimation de thèses racistes ou complotistes… Jusqu’où laissera-t-on faire ?
Dans de nombreux pays, la réaction ne s’est pas fait attendre : en Asie du Sud-Est, Grok a été bloqué à plusieurs reprises, tandis qu’en Europe et dans d’autres zones, des enquêtes sont en cours. Pourtant, aux États-Unis, les signaux d’alarme semblent à ce jour peu entendus. Le recours à une intelligence artificielle fermée, peu transparente et non auditée place l’administration sur une pente glissante, alertent des spécialistes comme Andrew Christianson. Jusqu’à quand tolérer cette opacité, alors qu’il ne s’agit plus uniquement d’un problème de sécurité, mais de droits humains ?
La coalition exige plus qu’un simple gel : une véritable enquête indépendante sur les ratés de Grok, et une clarification publique sur la manière dont la conformité du chatbot a été évaluée selon les standards fédéraux. L’administration acceptera-t-elle de rebrousser chemin sur un choix aussi stratégique ?
Au final, faut-il risquer une crise majeure — voire une affaire d’État — avant que les décideurs n’admettent enfin que certaines innovations technologiques, aussi séduisantes soient-elles, comportent des risques inacceptables pour une démocratie ?
Source : Techcrunch




