« Dans le technicolor paradis d’IA de Jensen Huang, tout est rayonnant et la seule limite est la disponibilité des ressources de calcul. C’est comme jouer à Minecraft avec des graphiques en mode créatif. »
C’est ainsi que le fondateur et PDG de Nvidia a présenté sa vision lors de son discours lors du SIGGRAPH à Los Angeles. Remontant à 2018, il explique comment leur décision de passer à l’IA pour le traitement des images a complètement redéfini leur avenir et celui d’une industrie en pleine mutation. L’heure du verdict est arrivée : le pari audacieux a-t-il été un coup de chance ou une ruse bien calculée ?
La problématique était simple : la technique de rendu 3D classique, la rasterisation, atteignait ses limites. La solution proposée par Nvidia ? Doubler la mise sur l’IA pour créer de nouvelles méthodes de traitement de l’image, notamment le ray tracing et l’upscaling intelligent – les fameuses technologies RTX et DLSS. Au passage, il a fallu réinventer le matériel, les logiciels et les algorithmes, mais aussi réinventer le GPU pour l’IA.
« Alors que Nvidia réinventait la CG à l’aide de l’IA, ils réinventaient aussi le GPU pour l’IA. »
Si le ray tracing et le DLSS sont toujours en cours d’adoption dans l’univers foisonnant des GPU grand public et du gaming, l’architecture qu’ils ont permis de créer s’est révélée être le parfait allié pour une communauté bourgeonnante d’apprentissage machine. En fait, les énormes besoins en calcul pour entraîner des modèles génératifs toujours plus grands étaient mieux servis non pas par des datacenters traditionnels avec une capacité GPU limitée, mais par des systèmes tels que le H100, conçus dès le départ pour exécuter les opérations nécessaires à grande échelle.
Mais avant qu’on ne s’emporte, Huang insiste sur le fait que nous ne sommes qu’au début. Il prédit un futur où non seulement les modèles devront être formés, mais aussi exécutés en temps réel par des millions, voire des milliards, d’utilisateurs réguliers. Les industries allant des effets visuels à la construction robotique, en passant par la conception d’usines et l’industrialisation lourde, adopteront à un certain degré une interface en langage naturel, estime-t-il.
Face à une telle prophétie, on se demande si Huang ne décrirait pas simplement le paradis selon Nvidia. Certes, l’adoption de LLMs est sans doute inévitable, mais dans quelle mesure ? Quoi qu’il en soit, une estimation prudente nécessiterait un investissement conséquent dans de nouvelles ressources informatiques. Pourquoi investir des millions dans des ressources informatiques de l’ancienne génération comme les racks centrés sur le CPU, quand on peut avoir le GH200, un matériel de développement IA dédié aux datacenters, qui fait le même travail pour moins d’un dixième du coût et des besoins en énergie ?
Huang a alors présenté une vidéo montrant l’assemblage LEGO de plusieurs unités de calcul Grace Hopper en une lame, puis en un rack, puis une rangée de GH200s connectés à des vitesses si élevées qu’ils représentent « le plus grand GPU unique au monde », composé d’un exaflop complet de puissance informatique spécialisée en ML.
On pourrait se méfier de cette vision optimiste du monde de l’IA dotée de lunettes roses, mais lorsque vous vendez des pioches et des pelles en pleine ruée vers l’or, vous pouvez vous permettre de penser de cette façon. Alors, que penser de cette vision AI-topia de Nvidia ? Je ne suis pas sûr, mais je sais une chose : ça vaut le Huang et sa NVIDIA !
Source : Techcrunch