« Qui a dit que la taille comptait ? » Voilà une question à garder en tête alors que l’intelligence artificielle se la joue mini format cette semaine ! Pendant que certains rêvent de superordinateurs et de milliards de paramètres à n’en plus finir, l’organisme de recherche AI2 vient de lâcher sur la toile Olmo 2 1B, un modèle d’IA d’un petit milliard de paramètres… mais avec des résultats qui font mordre la poussière à ses concurrents sur plusieurs benchmarks. Petit mais costaud : voilà qui mérite un remix du hit d’Astérix !
Mais, faisons les présentations : Olmo 2 1B n’est pas qu’un joli nom – c’est un modèle open source (licence Apache 2.0 s’il vous plaît !) disponible sur HuggingFace, la caverne d’Ali Baba des développeurs IA. Et attention, là où la plupart des modèles vous laissent sur votre faim avec juste les poids pour jouer, AI2 balance la totale : code source, datasets de training (le fameux Olmo-mix-1124 et aussi Dolmino-mix-1124). Des ingrédients transparents pour touiller votre propre potion magique… euh, votre modèle IA.
Pourquoi jouer dans la cour des « petits » ? Parce qu’avec moins de muscles, Olmo 2 1B consomme moins – inutile d’hypothéquer votre maison pour acheter une carte graphique de compétition. Résultat : développeurs, bricoleurs et simples curieux peuvent s’y frotter depuis un ordi portable ou même… un mobile ! Qui aurait cru qu’un giga-cerveau tiendrait un jour dans sa poche ?
Alerte : ne sous-estimez jamais la puissance de la légèreté… surtout quand elle met KO les géants !
Ce modèle n’est pourtant pas seul dans la course à la miniaturisation : Microsoft a récemment balancé sa gamme Phi 4, et Qwen propose maintenant un modèle de 3 milliards de paramètres, le 2.5 Omni 3B, qui tourne aussi sur n’importe quel laptop. Les modèles s’enchaînent comme des Pokémon, chacun misant sur l’accessibilité et l’efficacité – plus besoin d’un laboratoire secret pour dompter l’intelligence artificielle !
Côté cerveau, Olmo 2 1B a été nourri à hauteur de 4 000 milliards de tokens – c’est-à-dire des petits bouts de texte, parfois collectés, parfois générés par IA, voire écrits à la main (à l’ancienne !). Pour donner une idée, 1 million de tokens équivaut à peu près à un bon roman policier… alors imaginez le nombre de pages dans sa bibliothèque virtuelle.
Et ce petit nouveau semble aimer les maths : sur le test GSM8K (raisonnement arithmétique), il fait mieux que Google, Meta et Alibaba, qui ruminent sûrement dans leur coin. Mieux encore : sur TruthfulQA – le test du bon sens et de la vérité – Olmo 2 1B confirme qu’il a bon sur les faits… même si, soyons honnêtes, l’IA peut toujours raconter n’importe quoi dans un mauvais jour.
Précaution tout de même : AI2 recommande de ne pas déployer Olmo 2 1B directement dans une application grand public. Comme ses cousins, il peut parfois « halluciner » et sortir des contenus problématiques, voire franchement incorrects. Morale de l’histoire : petit mais (parfois) turbulent, il vaut mieux l’utiliser avec discernement… et ne pas le confondre avec un oracle !
Malgré tout, Olmo 2 1B donne un coup de neuf à la recherche open source et prouve qu’en IA, parfois, moins c’est plus. Les géants feraient bien de regarder aussi du côté des mini-modèles… car après tout, tout ce qui est petit n’est pas mignon, mais parfois sacrément malin.
Source : Techcrunch