« La liberté, c’est comme l’open source : tout le monde en parle, mais ça n’est pas donné à tout le monde ! » Si vous pensiez qu’OpenAI ne savait faire que dans le modèle fermé, détrompez-vous : la licorne américaine vient de sortir de sa grotte. Mardi, la société a lancé non pas un, mais deux modèles d’IA “open-weight” à la sauce reasoning, pour donner un peu de fil à retordre à la concurrence. Bye bye monopole, bonjour Hugging Face !
Prenez le gpt-oss-120b pour les gourmands disposant d’une Nvidia gourmande (de préférence, une carte graphique qui n’a pas été dévalisée par votre cousin gamer), ou optez pour le gpt-oss-20b, si votre PC portable a déjà du mal à ouvrir 8 onglets Chrome. Oui, c’est « open », mais attention, ce n’est pas open bar pour traiter les images ou générer du son – là, il faudra toujours appeler les grands frères fermés chez OpenAI.
Mais alors, pourquoi OpenAI sort-il enfin de son cocon privé, plus de cinq ans après GPT-2 ? Spoiler : ce n’est pas juste la nostalgie des débuts geek. En réalité, c’est la pression grandissante des laboratoires chinois (coucou DeepSeek, Qwen, Moonshot AI…) qui a remis la question de l’ouverture sur la table, ainsi qu’un petit coup de pouce (ou de pied) de l’administration Trump, qui rêve que l’IA open source soit aussi américaine que le cheeseburger. Même Meta, autrefois champion de la Llama, commence à brouter un peu derrière.
Enfin open… mais jamais totalement open !
Plutôt malin, OpenAI espère ainsi « regagner le cœur des développeurs et des politiciens » avec ces nouveaux jouets. Sam Altman, l’homme à la voix de sage d’IA, promet que cette ouverture va « bénéficier à toute l’humanité », tout en rappelant que c’est gratuit, hébergé chez l’Oncle Sam, et inspiré des « valeurs démocratiques ». On peut presque sentir le parfum du rêve américain flottant sur le cloud…
Pour savoir si ce nouvel opus est un blockbuster ou une série B, place aux tests ! En compétition sur Codeforces, gpt-oss-120b et son petit frère 20b dépassent DeepSeek R1, mais restent un peu à la traîne des modèles propriétaires o3 et o4-mini de la maison. Sur « Humanity’s Last Exam » (pas moins !), même topo : ils devancent la concurrence open, mais sont battus par les meilleurs de leur propre écurie.
Côté “hallucinations”, attention tout de même ! Les nouveaux modèles ont tendance à imaginer des faits à peine moins farfelus que votre oncle lors d’un repas de famille : 49 à 53% de réponses fantaisistes sur PersonQA, soit trois fois plus que le vieux modèle o1. OpenAI s’explique : plus le modèle est petit, plus il rêve en grand — et il assume.
Techniquement, cette version open utilise des mixtures-of-experts pour fonctionner de manière agile. Surtout, la licence Apache 2.0 permet à (presque) tout le monde de bricoler et vendre ces IA sans se soucier d’obtenir un mot doux de Sam Altman. Le secret reste néanmoins bien gardé : pas de divulgation des données d’entraînement, question de procès (et de propriété intellectuelle, mais surtout de procès).
Reste à voir si ces modèles “ouverts mais pas trop” prendront la tête dans la prochaine course à l’IA. Développeurs et curieux attendent déjà de pied ferme le DeepSeek R2 ou la prochaine vague signée Meta. Comme quoi, dans l’IA comme en politique, il y a ceux qui ouvrent… et ceux qui laissent juste la porte entrebâillée. Mais attention, avec OpenAI, rien ne dit qu’on n’ouvre pas une boîte de Pandore à chaque mise à jour !
Source : Techcrunch




