« Rien ne se perd, tout se copie… sauf l’accès à Claude, apparemment ! » Face au grand bal des intelligences artificielles, Anthropic vient de jouer une partition inattendue — OpenAI s’est vu claquer la porte de la famille Claude au nez, un peu comme quelqu’un découvrant que sa carte d’abonnement ne marche plus au buffet à volonté. Selon un rapport exclusif de Wired, ce n’est pas juste un caprice, mais bien la suite logique d’un bras de fer algorithmique entre deux mastodontes de la tech.
OpenAI, toujours avide de prendre la température de la concurrence, branchait discrètement Claude à ses propres outils internes pour comparer les prouesses en codage, en rédaction ou encore sur le plan de la sécurité. Ambiance atelier clandestin, mais en version binaire : qui sortira la meilleure copie, ChatGPT ou Claude ?
Sauf que les règles, c’est les règles (ou presque). Anthropic a dégainé son règlement et, d’après son porte-parole interrogé par TechCrunch, a rappelé qu’OpenAI avait carrément utilisé ses outils de code pour préparer la sortie de GPT-5. Et là, pas besoin d’être détenteur d’un master en legaltech pour décrypter l’implication : utiliser Claude pour muscler ses propres modèles concurrents, c’est un carton rouge, tout droit vers la sortie. Anthropic précise que cette pratique va à l’encontre de ses conditions d’utilisation, qui interdisent justement de s’en servir pour créer des services rivaux. Mais pas question d’être totalement fermé : pour l’évaluation comparative et la sécurité, OpenAI pourra encore jeter un coup d’œil, histoire de nourrir le débat sans déclencher la troisième guerre mondiale de l’IA.
À trop vouloir tester ses voisins, on risque de se retrouver à la porte de la fête.
Côté OpenAI, l’incrédulité se lit entre les lignes du communiqué. Pour eux, tout ça n’est qu’une « pratique classique de l’industrie » — si tout le monde piochait un peu chez tout le monde, la jalousie n’aurait pas lieu d’être. Au contraire, OpenAI souligne que son API reste toujours grande ouverte pour Anthropic, histoire de montrer que l’hospitalité, ce n’est pas qu’une histoire de robots.
Mais pas de scoop pour les experts du secteur qui suivent les petites querelles de cour de récré numérique. Jared Kaplan, Chief Science Officer d’Anthropic, avait déjà évoqué la politique de « pas de Claude pour les copains d’OpenAI » lors de l’affaire Windsurf. Résultat : Windsurf a finalement été acquis… mais pas par OpenAI, les histoires d’amour finissent mal en général, même pour les start-ups IA.
Au fond, cet épisode rappelle surtout que, derrière la façade chic et polie de la tech mondiale, on retrouve les bons vieux réflexes de gardien de but jaloux : on protège ses données, on surveille son terrain… et on ferme la porte quand le match devient trop serré. Mais n’oublions jamais, dans le monde de l’IA, que ce qui semble une querelle de bac à sable aujourd’hui pourrait bien façonner les règles du jeu global de demain.
Pour finir, disons qu’avec Anthropic et OpenAI, c’est clair : qui Claude s’y frotte, Claude s’y pique !
Source : Techcrunch




