Le gouvernement américain s’apprête-t-il à priver les États de tout pouvoir de régulation sur l’intelligence artificielle pour les cinq prochaines années ? C’est la question explosive qui agite le Congrès alors qu’un moratoire fédéral pourrait bouleverser l’avenir de la gouvernance technologique, et ce, bien au-delà des clivages politiques habituels.
Qui profite de cette suspension des lois locales ? Parmi les voix qui plaident en faveur d’un gel, des figures majeures du secteur comme Sam Altman (OpenAI), Palmer Luckey (Anduril), ou encore Marc Andreessen (a16z). Selon eux, permettre à chaque État d’imposer ses propres règles serait un frein à l’innovation et risquerait de faire décrocher les États-Unis dans la course mondiale à l’IA, notamment face à la Chine. Mais cette crainte d’un « patchwork » réglementaire est-elle fondée ou cache-t-elle un autre agenda ?
De l’autre côté, la contestation est farouche et hétéroclite. Syndicats, ONG, responsables démocrates et même certains républicains dénoncent une tentative des leaders technologiques d’échapper à la reddition de comptes. Dario Amodei (Anthropic) rejoint la critique : il déplore l’idée d’empêcher les États de protéger leurs citoyens contre les dérives potentielles de l’IA, qu’il s’agisse de fraudes, de deepfakes électoraux, de discrimination ou d’atteintes à la vie privée.
La guerre sur la régulation de l’IA réveille de vieilles tensions américaines sur les droits des États face au pouvoir fédéral, à l’heure où l’innovation technologique s’accélère.
La proposition, incluse dans le “Big Beautiful Bill” et poussée notamment par Ted Cruz, a été édulcorée ces derniers jours : le moratoire passerait de dix à cinq ans, avec des exemptions pour la protection des mineurs et des artistes. Mais la rédaction juridique reste floue et soulève de nombreux doutes chez les spécialistes du droit – comment mesurer ce qui constitue une “charge disproportionnée” pour les systèmes d’IA ?
Quels impacts concrets ? La nouvelle législation pourrait rétroactivement invalider des lois de pointe, comme celle de Californie sur la transparence des données d’entraînement des IA ou le ELVIS Act du Tennessee qui protège les artistes. Et le flou s’étend sur des dizaines d’autres lois déjà votées ou en discussion, destinées à limiter la manipulation électorale par deepfakes ou à imposer des audits de sécurité sur les modèles.
La ruse politique est aussi au cœur du dossier : pour insérer ce moratoire dans une loi budgétaire, Cruz l’a lié à l’attribution de fonds fédéraux pour le développement du haut débit dans les États. Dilemme pour les gouverneurs : faut-il sacrifier la connectivité rurale sur l’autel de la régulation de l’IA ? Cette “prise d’otage” du financement inquiète jusque dans les rangs républicains, en contradiction avec la tradition du respect des prérogatives locales.
Certains experts et militants accusent les géants de la tech de brandir le mythe d’une impossibilité à se conformer à des lois locales, alors qu’ils naviguent déjà au quotidien dans des environnements réglementaires complexes, que ce soit pour la protection des données ou la concurrence. Pourquoi l’IA ferait-elle exception ? Meta, Google et Apple, questionnés, se murent dans le silence tandis qu’OpenAI se contente d’invoquer la compétition avec la Chine.
Face aux critiques, un paradoxe émerge : alors que le Congrès n’a toujours pas adopté de cadre national sur l’IA, empêcher les États d’agir risque de créer un vide réglementaire dont seuls les grands acteurs de la tech pourraient profiter. Les Américains, eux, semblent globalement favorables à davantage — et non moins — de régulation, d’après un récent sondage Pew Research. Faut-il alors privilégier l’harmonisation nationale… ou maintenir la possibilité d’une riposte locale quand le droit fédéral tarde à suivre l’innovation ?
Source : Techcrunch