Pourquoi la Silicon Valley s’attaque-t-elle soudainement aux militants de la sécurité de l’IA ? Les récents propos de David Sacks — conseiller de la Maison-Blanche sur l’IA et la crypto — et de Jason Kwon, directeur de la stratégie chez OpenAI, font trembler la planète tech. Faut-il s’inquiéter de cette offensive contre ceux qui veulent freiner les dérives potentielles de l’intelligence artificielle, ou assiste-t-on à une stratégie pour faire taire la critique et préserver la croissance du secteur ?
Derrière les accusations portées contre certaines organisations pour la sécurité de l’IA — jugées « hypocrites » ou influencées par des milliardaires cachés — les acteurs critiques dénoncent une nouvelle méthode d’intimidation venue du cœur de la Silicon Valley. S’agit-il d’un phénomène isolé ? Pas vraiment : déjà en 2024, des rumeurs orchestrées par des investisseurs affirmaient qu’une loi californienne sur la sécurité de l’IA (SB 1047) enverrait les fondateurs de startups en prison, forçant même le gouverneur Newsom à opposer son veto malgré l’aval d’institutions telles que Brookings.
Climat de peur ou préoccupations légitimes ? Plusieurs membres d’ONG contactés par TechCrunch ont exigé l’anonymat, redoutant ouvertement des représailles. La fracture entre, d’un côté, l’ambition de créer des IA responsables et, de l’autre, la volonté d’accélérer la rentabilité et la diffusion de ces technologies grand public se creuse-t-elle à mesure que des lois, comme celle sur la régulation des chatbots en Californie, voient le jour ?
Depuis 2024, la Silicon Valley durcit le ton face aux militants de la régulation, alors même que le grand public reste partagé sur les risques majeurs associés à l’IA.
David Sacks n’hésite plus à dénoncer une opération de « captation réglementaire sophistiquée » menée par Anthropic, unique poids lourd de l’IA à soutenir franchement une nouvelle loi californienne (SB 53) renforçant le reporting sur la sécurité. Derrière ce discours frontal, ne tente-t-on pas de discréditer toute voix critique en la réduisant à une simple défense d’intérêts propres ? En parallèle, Jason Kwon d’OpenAI justifie l’envoi de larges assignations judiciaires à des associations telles qu’Encode, évoquant le soupçon d’une coordination opaque, notamment après l’appui de ces ONG à la plainte d’Elon Musk contre OpenAI.
Mais pourquoi OpenAI semble-t-elle redouter autant la critique interne ? En interne, la fracture est visible : tandis que les chercheurs publient ouvertement sur les dangers de l’IA, l’équipe dédiée aux affaires publiques fait pression contre des réglementations locales, préférant s’en remettre au fédéral. N’est-ce pas là le signe d’une entreprise déchirée entre transparence affichée et préservation d’intérêts stratégiques ? Même Joshua Achiam, responsable de l’alignement de mission chez OpenAI, déplore publiquement une situation qu’il juge risquée pour sa propre carrière.
Côté ONG, le sentiment de musèlement grandit. Le patron de l’Alliance for Secure AI dénonce une tentative claire de dissuasion : selon lui, OpenAI chercherait à étouffer toute voix organisée qui souhaite exiger des comptes, tandis que des figures comme Sacks s’inquiéteraient surtout de l’influence croissante du mouvement. Le conseiller principal de la Maison-Blanche, Sriram Krishnan, quant à lui, appelle à un dialogue avec « la vraie vie » et critique le décalage des militants avec les préoccupations courantes — mais les inquiétudes réelles du public concernent surtout les pertes d’emplois et les deepfakes plus que d’hypothétiques scénarios catastrophes.
Face à l’ampleur des investissements en jeu et à la croissance fulgurante du secteur, jusqu’où la Silicon Valley est-elle prête à aller pour freiner un encadrement devenu, semble-t-il, inévitable ? Et si l’hostilité inédite des géants de la tech envers la régulation marquait justement l’efficacité du mouvement « AI safety » à l’approche de 2026, à quels nouveaux bras de fer législatifs faut-il s’attendre ?
Source : Techcrunch




