Pourquoi le Département de la Défense américain décide-t-il aujourd’hui de passer un contrat colossal avec OpenAI, alors même que le sujet de l’intelligence artificielle reste hautement sensible sur le plan stratégique ? Si l’annonce d’un accord à hauteur de 200 millions de dollars avec la célèbre start-up californienne interpelle, il est légitime de s’interroger sur la nature véritable des missions confiées. Quels sont les véritables enjeux de cette collaboration entre l’armée américaine et les pionniers de l’IA générative ?
OpenAI a donné quelques exemples: aider les militaires à mieux accéder aux soins, simplifier le traitement des données administratives, ou renforcer la cybersécurité préventive. De prime abord, rien de révolutionnaire – l’IA au service de la paperasserie et du soutien aux soldats, en somme. Mais derrière cette façade de bonnes intentions, peut-on réellement ignorer les conséquences d’une telle alliance pour la sécurité et la souveraineté numérique ? Surtout, quelles garanties OpenAI donne-t-il ? L’entreprise insiste sur le respect de ses politiques d’utilisation, mais, en janvier dernier, elle avait discrètement supprimé de ses règles la mention d’interdiction des usages militaires.
Le Département de la Défense, de son côté, affirme vouloir « développer des prototypes d’IA de pointe pour répondre à des défis majeurs de sécurité nationale, dans les domaines militaire et d’entreprise ». Le terme « militaire » évoque-t-il le soutien logistique ou la création de nouveaux systèmes d’armes ? Mystère, et pour l’heure, OpenAI n’a pas souhaité clarifier.
La frontière entre usages administratifs et militarisation de l’IA semble plus poreuse que jamais.
Au-delà de cette incertitude, cette nouvelle annonce intervient alors que le rapport de force avec la Chine, perçue comme concurrente directe sur l’IA, s’intensifie. Nul n’ignore que des acteurs influents de la Silicon Valley, à commencer par Marc Andreessen, investisseur d’OpenAI, agitent la menace d’une « guerre froide » technologique. Est-ce là le véritable moteur de l’empressement du Pentagone ?
Autre question : ce contrat pourrait-il rebattre les cartes des relations déjà tendues entre OpenAI et son principal partenaire, Microsoft ? L’entreprise de Redmond, pourtant spécialiste de la conformité et poids lourd des marchés publics américains, a vu son service Azure OpenAI validé par la Défense pour tous les niveaux de classification… il y a tout juste deux mois. Malgré des milliards investis dans OpenAI, Microsoft voit aujourd’hui l’armée court-circuiter l’intermédiaire pour traiter directement avec la start-up. Signe que la confiance s’effrite, ou stratégie de diversification côté gouvernement ?
L’accord s’inscrit dans l’initiative « OpenAI for Government », qui centralise désormais la commercialisation des solutions IA directement auprès des agences fédérales : laboratoires nationaux, armée de l’air, NASA, NIH, ou encore Trésor public américain seraient sur la liste. Cette montée en puissance laisse présager une IA institutionnelle au cœur des processus d’État. Mais qui, demain, maîtrisera vraiment les algorithmes qui inspirent, analysent et peut-être agissent au nom du pouvoir public ?
Microsoft a refusé de commenter, et OpenAI n’a pas daigné répondre à nos sollicitations. Dans ce contexte de compétition mondiale accrue, la tendance à la militarisation masquée de l’IA ne fait-elle pas courir un risque inédit de dépendance technologique à des acteurs privés ?
Source : Techcrunch