Jusqu’où l’intelligence artificielle peut-elle vraiment aller dans sa capacité à raisonner comme un humain? Depuis le lancement fulgurant de ChatGPT, le monde observe avec une fascination teintée d’inquiétude les progrès d’OpenAI dans le domaine de l’IA dite “raisonnante”. Mais derrière les coups d’éclat, qu’est-ce qui rend ces nouvelles générations de modèles si différentes ? Et comment OpenAI s’y prend-il pour tenter de réaliser le rêve encore lointain d’agents autonomes capables de tout faire, à la place de l’utilisateur ?
En 2022, alors que le grand public découvrait la magie (ou parfois les errements) conversationnelle de ChatGPT, des chercheurs en coulisse, comme Hunter Lightman et l’équipe MathGen, s’engageaient dans un défi bien distinct : doter les IA d’un raisonnement mathématique robuste, inspiré des compétitions de haut niveau. Pourquoi choisir la complexité des maths ? Peut-être parce qu’elles constituent un terrain d’entraînement impitoyable, où la rigueur et la logique pure sont reines. Mais est-ce suffisant pour donner naissance à de véritables “agents”, ces fameuses entités logicielles censées exécuter des tâches humaines sur ordinateur ?
L’amélioration spectaculaire des modèles OpenAI en mathématiques, aboutissant à une médaille d’or à l’Olympiade Internationale de Mathématiques face aux meilleurs lycéens du monde, montre que l’approche fonctionne… du moins sur ce terrain. Pourtant, ChatGPT et consorts hallucinent encore trop souvent ou échouent face à des tâches complexes. Alors, la recette miracle existe-t-elle ? Quelles sont les coulisses de cette “renaissance” du machine learning, reposant désormais sur des techniques de renforcement et d’abstraction du raisonnement ?
La course à l’IA raisonneuse ne se limite plus à OpenAI : la compétition mondiale s’intensifie, poussant chaque laboratoire à repousser les limites du possible.
OpenAI a placé ses espoirs dans des méthodes comme le Reinforcement Learning, déjà à l’origine de victoires spectaculaires dans des jeux de stratégie comme Go avec Google DeepMind, couplé à l’introduction de processus computationnels plus lents et plus approfondis (“test-time computation” ou “chain-of-thought”). Avec des techniques pour donner à la machine du temps pour planifier, vérifier, et apprendre de ses erreurs, les ingénieurs affirment avoir observé des “traces de raisonnement” proches de la pensée humaine. Mais doit-on se satisfaire de cette analogie ? S’agit-il véritablement de raisonnement, ou simplement de la simulation convaincante d’un processus humain par une machine mathématiquement sophistiquée ?
Alors que le secteur bouillonne d’innovations, des chercheurs OpenAI se sont vu proposer des offres faramineuses pour aller renforcer la concurrence, notamment chez Meta, qui entend désormais jouer des coudes sur le terrain de la superintelligence. Ce qui laisse songeur : OpenAI a-t-il encore une avance significative ou le centre de gravité de l’innovation bascule-t-il du côté de Google, Anthropic, xAI et Meta qui investissent massivement dans leurs propres agents et modèles raisonnants ?
Mais derrière la performance mathématique, une conquête de bien plus grande ampleur se dessine : celle de l’automatisation des tâches “subjectives”. Si des IA comme Codex sont déjà capables de décharger les développeurs de certaines tâches de code, les agents généralistes peinent encore à alléger la vie quotidienne des utilisateurs – qu’il s’agisse de faire leurs courses en ligne ou d’organiser leurs déplacements. Les chercheurs identifient le “problème des données” : comment entraîner ces agents sur des tâches où il n’existe pas de bonne réponse unique ou vérifiable ?
Ce sont justement ces modèles, capables de générer et d’évaluer plusieurs solutions simultanément, qui pourraient ouvrir la voie à la prochaine génération d’agents généralisés. Mais une question demeure : à mesure que le niveau de complexité et la subjectivité des tâches augmentent, l’IA pourra-t-elle gagner la confiance du public, et surtout, qui remportera cette bataille de l’innovation ?
À l’heure où la promesse d’un agent universel, compréhensif et performant, se rapproche, OpenAI aura-t-il les moyens (et le temps) de redéfinir notre rapport à l’intelligence artificielle avant que ses rivaux ne prennent le dessus ?
Source : Techcrunch




