Faut-il croire à l’avènement des robots réellement autonomes, capables d’apprendre et d’agir sans être constamment connectés au cloud ? Google DeepMind vient tout juste de lever un coin du voile avec une annonce attendue : le modèle Gemini Robotics On-Device promet de révolutionner la robotique en rendant le cerveau de l’IA plus accessible… et plus indépendant. Mais jusqu’où va cette promesse, et que cache-t-elle derrière l’effet d’annonce ?
Selon Google, cette nouvelle mouture on-device permettrait aux robots de traiter et d’exécuter des instructions localement, en s’affranchissant de la connexion permanente aux serveurs distants. Or, si l’on se souvient de la version précédente liée au cloud, difficile de ne pas s’interroger : performance rime-t-elle toujours avec autonomie ? L’entreprise assure que sur les benchmarks, Gemini Robotics On-Device rivalise avec son homologue « cloud » et bat la concurrence locale. Mais quels sont ces fameux modèles concurrents jamais explicitement nommés ? Au royaume du marketing, tout chiffre mérite d’être examiné à la loupe.
Dans ses démonstrations, DeepMind a présenté des robots capables de manipuler de nouveaux objets, d’effectuer des tâches comme dézipper un sac ou plier des vêtements — jusqu’à s’attaquer à l’assemblage sur ligne industrielle avec le célèbre robot bi-bras Franka FR3 et l’humanoïde Apollo. Mais ces démonstrations suffisent-elles pour parler de généralisation ? L’expérience a-t-elle été aussi concluante hors du laboratoire, avec des scénarios réellement imprévus ?
L’autonomie des robots franchit-elle enfin le seuil entre fiction et réalité, ou risquons-nous de tomber dans le piège des annonces prématurées ?
Google mise aussi sur la co-création, avec la mise à disposition d’un SDK Gemini Robotics. Les développeurs pourront montrer aux robots entre 50 et 100 exemples pour entraîner les modèles, notamment avec le simulateur MuJoCo. Cela accélérera-t-il l’innovation, ou va-t-on voir surgir une avalanche de cobots maladroits ?
Le mouvement ne s’arrête pas chez Google. Nvidia accélère aussi pour créer ses propres modèles de base pour robots humanoïdes, tandis que Hugging Face lance des initiatives open source aussi bien sur les datasets que dans la robotique matérielle. En Corée, des acteurs comme RLWRLD lèvent des fonds pour bâtir leurs fondations en IA robotique. N’assiste-t-on pas à l’aube d’une véritable lutte des titans ?
Finalement, à qui profitera cette course à l’autonomie et à la performance ? Les industriels, séduits par la promesse de robots flexibles et adaptables ? Les chercheurs, qui rêvent d’avancées encore inaccessibles avec les architectures actuelles ? Ou les géants de la tech, dont la stratégie est de devenir incontournables dans l’écosystème AIoT (intelligence artificielle des objets) ?
Si Google DeepMind met les bouchées doubles pour démocratiser l’IA robotique sur nos appareils locaux, reste à savoir si le grand public et l’industrie franchiront le pas en confiance. Les robots deviendront-ils vraiment plus autonomes… ou ne sommes-nous qu’au début d’une nouvelle grande promesse technologique ?
Source : Techcrunch