« Une IA dans un bureau ovale ne fait pas le printemps. » Voilà une phrase que ni Sam Altman (OpenAI) ni Dario Amodei (Anthropic) n’auraient probablement osé tweeter, mais qui résume à merveille la querelle numérique qui secoue la Silicon Valley ces jours-ci. Oubliez HBO : le vrai drama, c’est dans les laboratoires d’intelligence artificielle que ça se passe, et derrière les smartboards, on frôle le high drama sur fond de contrats militaires et de principes vacillants.
Dernier épisode en date : Anthropic a décliné une offre du très sérieux Département de la Défense américain, préférant garder ses IA loin de toute utilisation belliqueuse ou décriée (autrement dit : pas de robots espions ni de Terminators allégués pour Dario Amodei et ses troupes). Mais pendant qu’Amodei joue au justicier du code source, Sam Altman d’OpenAI a sorti son plus beau stylo pour parapher un partenariat avec le Pentagone, tout en promettant des « safeguards » dignes d’une ceinture de sécurité sur une trottinette électrique.
Dario Amodei, visiblement plus remonté qu’un chatbot privé de wifi, a traité cette manoeuvre de « théâtre de la sécurité », c’est-à-dire une jolie vitrine sans véritable fond. Selon lui, si OpenAI a dit oui à l’oncle Sam, ce n’est pas par amour des militaires, mais pour amadouer ses propres employés. On croit rêver : l’IA, cet oracle si rationnel, troquée entre deux egos humains… et ce n’est pas du théâtre, promis !
À la guerre comme à la guerre, mais surtout à l’IA, les principes partent souvent en bug.
La différence, à en croire Amodei, c’est qu’Anthropic pose des limites claires : pas d’IA pour surveiller les citoyens ou larguer des drones tout seul. Le Pentagon, de son côté, voulait pouvoir utiliser l’IA pour tout « usage légal » – une notion aussi flexible qu’un NDA pour influenceur en perte de vitesse. Et OpenAI ? Altman affirme que la surveillance de masse resterait interdite, mais vu que la loi peut évoluer (les lobbyistes, ça sert à ça), certains craignent que la porte soit un peu entrouverte. Bref, c’est un balancier juridique où chaque clause scintille comme une LED sur un clavier gamer.
Dans la vraie vie (ou du moins sur les réseaux sociaux postés et repostés à toute vitesse), c’est Anthropic qui semble rafler la couronne de l’opinion – du moins chez les utilisateurs de ChatGPT qui n’ont pas hésité à désinstaller l’application en masse (+295%, on appelle ça une fuite de données…de clients). Les internautes, mi-amusés mi-inquiets, redoutent une IA qui s’engage au service de l’État sans plus de garanties que ça.
Et l’histoire ne serait pas complète sans la dose de sarcasme d’Amodei : selon lui, la stratégie de communication d’OpenAI trompe peut-être quelques twittos, mais elle ne dupe plus ni la presse ni l’opinion. Sa plus grande inquiétude, en bon chef d’entreprise ? Que le storytelling d’Altman embobine… les propres équipes d’OpenAI ! On appelle ça la guerre froide… du cloud.
En résumé : derrière les grandes phrases et les beaux communiqués, la morale de cette cyber-saga, c’est que même l’intelligence artificielle échoue parfois à prédire les ressorts bien humains du compromis (ou du compromis sur le compromis). Allez, sans mauvais jeu de mots… il semble que l’open war, ce n’est jamais très open bar !
Source : Techcrunch




