« Les intelligences artificielles, c’est comme la mayonnaise maison : c’est toujours meilleur quand c’est ouvert… Mais attention aux œufs cassés ! »
Mesdames, messieurs, et fans de robots qui trébuchent en lisant « Reasoning Model », l’heure est venue de lever le voile sur la nouvelle lubie d’OpenAI : l’ouverture (vraiment ? vraiment-vraiment ?) de ses modèles de langage. Après avoir laissé le monde cuisinier avec GPT-2 en open source en 2019, voilà qu’Aidan Clark, VP recherche chez OpenAI, fourbit ses ustensiles pour concocter le prochain modèle « open », annoncé comme le meilleur élève de la classe… avec la souplesse d’une pâte à pizza pour la licence d’utilisation !
Mais attention, chez OpenAI, quand on dit « ouvert », on ne veut pas dire « faites tout ce que vous voulez et mettez du ketchup ». Face à une concurrence chinoise menée tambour battant par DeepSeek et le succès planétaire de produits comme Llama de Meta (qui dépasse le milliard de téléchargements, c’est plus que le nombre de chaussettes perdues par an !), OpenAI sent la pression monter et veut prouver qu’elle aussi sait jouer collectif.
À vouloir s’ouvrir, OpenAI espère ne pas trop se découvrir… surtout en pleine tempête concurrentielle.
Car la stratégie open source, jusque-là boudée (voire snobée) par OpenAI, fleure bon l’efficacité. On offre à la communauté l’occasion de bidouiller, de commercialiser, de transformer… Et ça marche ! Mais l’open source à la sauce OpenAI, ce sera aussi le test du « raisonnable activable/désactivable » : un gadget de geek pour choisir entre précision supplémentaire (au prix d’une machine qui mouline plus longtemps) et vitesse éclair. La promesse ? Peut-être d’autres modèles plus petits par la suite, histoire de ne pas tout miser sur le gros gâteau d’anniversaire.
Sam Altman, le patron à la voix d’oracle parfois incompris, a reconnu cette année que son entreprise avait longtemps été « du mauvais côté de l’histoire » sur la question de l’ouverture. Alléluia ! Mais ouvrir la porte ne veut pas dire faire entrer le loup sans contrôle : OpenAI jure que son prochain joujou subira une batterie de tests, des audits et même la publication d’un « model card » (un bulletin de notes ultra détaillé sur la sécurité et la performance)… Du jamais-vu, disent certains. D’autres rappellent que les promesses n’engagent que ceux qui y croient.
Pas de rose sans épine : OpenAI a essuyé plus d’un vent glacial sur le sujet de la sécurité, accusée par certains de sortir ses modèles plus vite que son ombre, parfois sans vrai bulletin de santé. Sam Altman lui-même a été tancé pour des communications opaques et pour la gestion tempétueuse de ses équipes l’an dernier. Bref, « open » rime parfois avec « open bar », et les détracteurs ne manqueront pas d’attendre l’entreprise au tournant.
Alors, OpenAI va-t-elle enfin jouer le jeu de la communauté ? Ou va-t-on découvrir quelques gâteaux cachés dans le code source ? En attendant de goûter la nouvelle recette, on reste prudent… car dans le monde de l’IA, il ne suffit pas d’ouvrir la boîte : encore faut-il que la surprise à l’intérieur ne soit pas une boîte à camembert oublié !
Source : Techcrunch