« Les datas, c’est comme les frites, tout le monde en veut mais tout le monde ne sait pas comment les cuire ! » C’est l’état d’esprit dans lequel Google Cloud fonce tête baissée dans la nouvelle bataille de l’intelligence artificielle. Car s’il existait un championnat du monde des deals mégalomanes en IA, ce serait le moment d’acheter du pop-corn ! Entre Nvidia et OpenAI qui s’offrent un partenariat à 100 milliards de dollars, et Amazon, Oracle ou Microsoft qui font chauffer la carte bleue comme jamais, on dirait presque que la Silicon Valley s’est transformée en téléshopping géant du supercalculateur.
Mais tandis que ces géants du cloud s’échangent des milliards comme certains s’envoient des memes, Google Cloud, lui, a décidé de la jouer malin. Plutôt que de collectionner les mastodontes de l’IA déjà bien installés, la branche cloud d’Alphabet se met à draguer intensivement la jeunesse montante de l’IA, celle qui se construit dans un garage ou un Slack, avec l’espoir discret d’attraper le prochain “unicorne” avant qu’il n’aille voir si la pelouse est plus verte chez la concurrence.
Pour Francis deSouza, nouveau COO de Google Cloud au CV plus long que le script de Barbie, la stratégie n’est pas de courir après les deals XXL, mais de faire du Google Cloud la planque idéale des startups IA. Ici, on ne parle pas d’un milliard out of nowhere, mais de “crédits cloud” (350 000 dollars pour commencer, qui dit mieux ?), d’accès privilégié aux ingénieurs maison et de support technique aux petits oignons. Bref, Google cuisine à la carte pour la nouvelle génération d’IA.
Miser sur les petits de l’IA aujourd’hui, c’est espérer récolter les géants de demain (et accessoirement, quelques milliards au passage).
Il faut dire que pendant que Meta, OpenAI et consorts signent des chèques astronomiques chez la concurrence, Google ne passe pas inaperçu. Selon deSouza, neuf des dix plus grands laboratoires IA mondiaux profitent déjà de la maison Google, et 60% des startups GenAI ont choisi son cloud. Et comme si cela ne suffisait pas, Google place maintenant ses fameuses TPU (Tensor Processing Units), ses puces sur-mesure pour carburant à neurones, dans les infrastructures de concurrents comme Fluidstack à New York. Quand on dit “ouvert”, on ne rigole pas !
Certes, tout ceci ressemble à un casse-tête digne d’un Rubik’s cube arc-en-ciel. Car pendant que Google équipe OpenAI dans la salle des machines, elle développe Gemini, son propre chouchou de l’IA, qui joue dans la même cour. Ajoutez à cela des prises de participation croisées (hello Anthropic !), et on comprend vite pourquoi les régulateurs américains ont des sueurs froides. Entre accusations de monopolisation des datas et ambitions open source affichées (Agent2Agent, transformers, Kubernetes…), Google jongle entre ouverture et appétit féroce pour l’innovation.
Mais attention, même si le géant de Mountain View s’autoproclame “ami des startups IA”, l’histoire ne dit pas s’il rêve vraiment de concurrence ouverte ou d’un empire façon Star Wars (le cloud contre-attaque, vous l’avez ?). Pour l’instant, Francis deSouza affiche surtout la volonté de “libérer la science”, de faciliter la recherche sur Alzheimer, Parkinson ou le climat… Mais les critiques grondent : peut-on vraiment croire que Google joue toujours franc-jeu ?
Au fond, dans la mêlée actuelle de l’IA, Google fait le pari du long terme en pariant sur la fertilité de milliers de jeunes pousses. S’ils récoltent une forêt de nouveaux géants, tout le monde criera au génie. Sinon, ils auront au moins distribué pas mal de crédits cloud – et quelques bons moments à tous les amateurs de jeux de mots technos. La morale ? Dans le cloud, mieux vaut semer sur plusieurs serveurs que de mettre tous ses octets dans le même panier !
Source : Techcrunch




