« Les puces ne font pas le bonheur, mais elles y contribuent. » Voilà un proverbe que Nvidia semble résolument décidé à graver dans le silicium avec le lancement de son architecture Rubin, dévoilée en grande pompe par Jensen Huang lors du Consumer Electronics Show (CES) 2026. On pensait avoir tout vu avec les architectures Blackwell, Hopper ou Lovelace, mais c’était sans compter sur l’incroyable appétit de la marque au caméléon pour redéfinir le sommet technologique… Encore et encore !
Rubin, du nom de la célèbre astronome Vera Rubin (les fans de matière noire apprécieront), est censée répondre à un défi qui explose plus vite qu’un meme sur X : la quantité de calcul nécessaire pour l’IA atteint des sommets stratosphériques. « L’IA, c’est comme la raclette. Plus on en a, plus il en faut ! », aurait-on pu entendre dans les couloirs. Jensen Huang a lui plus simplement résumé la situation : Vera Rubin est déjà en pleine production, prête à transformer les datacenters de la planète.
Rubin ne se contente pas de réchauffer les restes du passé. Cette architecture s’appuie sur une constellation de six puces agissant de concert (quelle harmonie !), avec un GPU central et des innovations clés sur les systèmes de stockage (Bluefield) et d’interconnexion (NVLink). Le tout est accompagné d’un tout nouveau CPU Vera destiné à rendre les IA encore plus agentiques. Bref, Rubin, c’est la dream team du hardware version XXIe siècle, où tout a été pensé pour ne plus jamais entendre un bot dire « désolé, je rame ».
Chez Nvidia, changement d’architecture rime (presque) avec changement d’ère dans le monde de l’IA !
Derrière les annonces jamais avares en superlatifs, les enjeux sont loin d’être anodins : Nvidia a déjà séduit les géants du cloud (Amazon Web Services, Anthropic, OpenAI, HPE, etc.), qui se sont rués sur ces nouvelles puces comme des geeks devant une promo sur les cartes graphiques. Parmi les crédenciales techniques, Dion Harris (directeur AI infra chez Nvidia), a insisté sur le défi du KV cache — pour les intimes, la mémoire qui permet à vos IA préférées de ne pas perdre le fil. Rubin y répond par une tier de stockage externe, histoire d’éviter la panne sèche à la moindre requête un peu longue.
Côté performances, Rubin vise la surenchère (mais qui s’en plaindrait ?). Trois fois et demi plus rapide que Blackwell pour l’entraînement, cinq fois pour l’inférence, jusqu’à 50 petaflops et huit fois plus d’inférence par watt. Ce n’est pas une machine, c’est une fusée ! Mais, comme souvent, à mesure que le matériel s’envole, la course à l’infrastructure s’intensifie. Entre 3 000 et 4 000 milliards de dollars pourraient ainsi s’évaporer dans les cinq prochaines années rien que pour suivre le tempo de l’IA. De quoi donner le vertige… ou des idées d’investissements !
Un petit détour dans le passé suffit à réaliser que chaque architecture Nvidia marque un pas de géant – ou une ruée, selon les points de vue – mais change aussi l’équilibre du secteur. Rubin, véritable vaisseau amiral d’une flotte de partenariats tous azimuts, nous rappelle que derrière chaque puce dernier cri, il y a une galaxie de défis et de promesses. À suivre au fil des annonces du CES et, n’en doutons pas, du fil Twitter de TechCrunch !
En résumé, la recette Nvidia n’a pas changé : un zeste d’innovation, un nuage de nostalgie stellaire, et une bonne grosse louche de business. Mais avec Rubin, il faudra peut-être bientôt changer d’expression : ce n’est plus la cerise sur le gâteau, c’est la galaxie dans le cupcake.
Source : Techcrunch




