Qui détient réellement le pouvoir sur le futur de l’intelligence artificielle aux États-Unis : les élus ou les géants de la tech ? Alors que le débat sur la régulation de l’IA prend une ampleur inédite, l’offensive de Silicon Valley contre les initiatives de contrôle locaux lance une question cruciale sur le rapport de force entre démocratie et intérêts privés.
Qui est Alex Bores, cet ancien ingénieur de Palantir aujourd’hui cible de campagnes d’attaques massives ? Si les spots publicitaires dépeignent Bores comme un complice des politiques de déportation de l’ICE, il affirme avoir quitté Palantir spécifiquement pour protester contre ses contrats avec cette agence. Pourquoi un homme au passé tech si assumé attirera-t-il autant les foudres du secteur ? Est-ce justement parce qu’il maîtrise suffisamment les rouages technologiques pour être perçu comme une menace crédible par ceux qui veulent empêcher toute régulation ?
La réponse semble se trouver dans la virulence de la réaction : le super PAC « Leading the Future », dopé aux millions d’OpenAI, Palantir, Andreessen Horowitz et autres puissances californiennes, veut faire de Bores un exemple. Leur objectif ? Dissuader tous ceux qui oseraient soutenir des lois comme le RAISE Act, qui impose simplement aux grandes entreprises de l’IA (au-delà de 500 millions de revenus) de publier un plan de sûreté et de signaler tout incident grave. Comment expliquer que même une telle mesure, minimaliste pour d’autres secteurs, déclenche de si vastes manoeuvres de lobbying ?
La bataille autour de l’IA montre jusqu’où Big Tech est prête à aller pour garder la mainmise sur la réglementation, quitte à écraser ses opposants.
Loin d’être un débat technique, le sujet devient éminemment politique. La Silicon Valley ne cherche-t-elle pas, via ces super PACs, à façonner un cadre légal à sa convenance, en privilégiant des règles fédérales, et donc plus faciles à influencer ? Doit-on y voir une peur que les États, bien plus proches des citoyens et de leurs préoccupations concrètes, imposent une protection qui aurait valeur d’exemple pour le reste du pays ?
Le paradoxe est frappant : alors que Meta investit 65 millions dans des PACs pro-technologie et que les donations du secteur IA explosent lors des élections, des voix contradictoires émergent aussi à l’intérieur même des entreprises tech. Une partie des salariés d’OpenAI, Anthropic ou Google protestent publiquement contre les positions de leurs dirigeants sur les sujets éthiques et sécuritaires. Est-ce le signe d’un clivage grandissant entre ceux qui développent l’IA et ceux qui la gouvernent ?
Bores, fort de son expérience technique, propose un plan national détaillé et appelle à plus de transparence sur les algorithmes et les bases de données utilisées pour entraîner l’IA. Mais la pression est immense : peut-on réellement faire de la politique sur l’IA aujourd’hui sans disposer de dizaines de millions en soutien, face à des adversaires qui voient dans chaque initiative une menace existentielle ?
Au fond, la question qui traverse tous ces affrontements reste la même : les citoyens, via leurs représentants, peuvent-ils vraiment influer sur la manière dont l’IA va transformer leur quotidien, leur emploi, leur environnement ? Ou bien le futur numérique sera-t-il scellé derrière les portes closes des conseils d’administration de la Silicon Valley ?
Source : Techcrunch




