Qui sont les véritables candidats capables de renverser la domination écrasante de Nvidia dans le secteur des puces d’IA? La question mérite d’être posée au vu des derniers mouvements d’Amazon, qui affiche ouvertement ses ambitions lors de sa conférence AWS re:Invent.
Pourquoi Andy Jassy, le patron d’Amazon, mise-t-il autant sur son Trainium3, censé offrir des performances quadruplées pour une consommation énergétique en baisse? En dévoilant fièrement les résultats du Trainium2 – plus d’un million de puces en circulation et un portefeuille client de 100 000 entreprises – le géant du cloud affirme sa volonté de s’imposer sur le marché. Mais est-ce suffisant pour fissurer l’armure de Nvidia, leader incontesté muni d’une base logicielle propriétaire (CUDA) quasi incontournable?
La stratégie d’Amazon semble limpide : proposer une alternative compétitive, à la fois plus puissante et moins chère. À l’image de son modèle économique habituel, l’entreprise espère séduire par une offre maison difficilement refusable. Mais peut-on se contenter de la seule performance technique pour opérer un changement dans un écosystème dominé par un acteur aussi implanté?
La bataille pour détrôner Nvidia ne se joue pas exclusivement sur le terrain de la puissance de calcul, mais aussi sur le contrôle du logiciel et des alliances stratégiques.
L’éclairage de Matt Garman, PDG d’AWS, révèle en prime que le client vedette d’Amazon n’est autre qu’Anthropic, qui exploite plus de 500 000 puces Trainium2 pour entraîner les nouveaux modèles de son assistant Claude. Derrière ce partenariat, une réalité : Amazon finance massivement Anthropic et en retire l’exclusivité du “principal partenaire d’entraînement”. Mais dans ce chassé-croisé technologique, Anthropic distribue aussi ses solutions sur Microsoft Azure… grâce aux puces Nvidia.
Qu’en est-il des autres alliances? Si OpenAI – fleuron de l’intelligence artificielle – s’appuie également sur AWS pour sa puissance de calcul, Amazon avoue lui-même recourir aux GPU Nvidia pour ces usages. Difficile, dans ce contexte, d’imaginer un renversement rapide d’équilibre : même avec la puissance d’Amazon, Nvidia continue de bénéficier d’une rente logicielle via CUDA, que peu d’acteurs peuvent challenger sans réécrire entièrement leurs applications IA.
L’enjeu va alors bien au-delà du simple hardware : rares sont les entreprises capables de maîtriser le triplé gagnant (conception de puces, interconnexions à haute vitesse, et réseau propriétaire) nécessaire pour avancer sur les terres du californien. Les géants américains – Google, Microsoft, Meta, Amazon – apparaissent isolés dans cette lutte, et Nvidia verrouille méthodiquement chaque pan stratégique, à l’image de son rachat décisif de Mellanox en 2019.
Pour contourner ce verrou, Amazon préparerait déjà une riposte avec le Trainium4, annoncé comme interopérable – non sans ironie – avec les GPU Nvidia sur une même architecture. Est-ce un nouveau moyen de grappiller des parts de marché, ou une façon d’ancrer encore davantage Nvidia chez AWS?
En définitive, même si Amazon semble empocher déjà des milliards grâce à sa propre puce, la vraie question demeure : la firme cherche-t-elle à concurrencer Nvidia sur son terrain ou à s’assurer une rente confortable, quoi qu’il arrive? L’avenir du hardware d’IA se jouera-t-il vraiment sur l’innovation technologique, ou sur la capacité à imposer un écosystème logiciel fermé?
Source : Techcrunch




