Distorted letters 'a' and 'n' on striped background

Credits image : Zach M / Unsplash

HardwareIntelligence ArtificielleTechnologie
0

Garde à vue : l’IA se fait petit pour mieux voir grand

« À quoi sert un gros cerveau si on peut avoir un mini génie dans sa poche ? » Voilà une question à méditer… surtout quand, dans le monde frénétique de l’IA, la taille finit par compter autant… qu’elle ne compte plus !

Depuis que les défaillances chez les fournisseurs de cloud s’enchaînent plus vite qu’une série Netflix un dimanche pluvieux, Lux Capital, toujours prompt à jouer les Cassandre, conseille aux startups de bétonner leurs contrats d’infrastructure IA par écrit. Pas question de se contenter d’une poignée de main virile : la jungle de la tech, c’est du sérieux !

C’est là qu’une startup espagnole, Multiverse Computing, fait son entrée sur scène — et pas en douce. Plutôt que de dépendre de grandes centrales d’énergie computationnelle, cette équipe préfère mettre l’IA directement entre vos mains, via des modèles compressés capables de tourner sur votre smartphone ou ordinateur portable. Pas de data center, pas d’attente, et surtout, pas de mauvaise surprise (contrairement à ce texto « on doit parler … » à 23h58).

Quand l’IA devient format poche, on ne se fait plus de mauvais films sur la sécurité du cloud.

Leur bijou, l’application CompactifAI, propose une expérience façon ChatGPT, mais vraiment “dans ta face” — car le modèle “Gilda” tourne localement (offline). Attention tout de même : si votre smartphone date de l’ère paléolithique (comprendre : avant 2020), la magie opère moins bien et vous voilà renvoyé vers le cloud, perdant ainsi l’avantage niveau confidentialité. On appréciera au passage la référence malicieuse au Seigneur des Anneaux, puisque leur système de routage automatique porte le doux nom d’Ash Nazg — rien que ça.

Ne vous attendez pas à voir CompactifAI détrôner TikTok dans l’App Store tout de suite : moins de 5 000 téléchargements le mois dernier. Mais ce n’est pas pour draguer Monsieur et Madame Tout-le-monde que Multiverse a sorti l’artillerie lourde. L’objectif, c’est de séduire les entreprises et les développeurs : avec le lancement de leur portail API self-service, plus besoin de passer par AWS Marketplace pour jouer avec leurs modèles compressés, c’est open-bar.

Pourquoi ce choix stratégique ? Au-delà de l’effet “regardez comme c’est petit !”, ces mini-modèles coûtent moins cher à faire tourner, tout en gagnant chaque mois en sophistication. Même les géants comme Mistral s’y mettent, offrant des modèles rabotés qu’on peut adapter aux besoins spécifiques de chaque métier. Oui, le règne des LLMs géants vacille… et c’est peut-être une excellente nouvelle pour la planète et les CFOs.

Chez Multiverse, on surfe déjà sur la vague du quantique en compressant tellement les modèles (coucou HyperNova 60B 2602) qu’ils deviennent plus rapides et moins gourmands, sans (trop) perdre en intelligence. L’enjeu ? Permettre à l’IA de bosser là où la 5G n’a pas encore posé ses valises : drones, satellites, chantiers reculés. Y’a pas que les citadins branchés qui ont droit à leur bot personnel, après tout.

La cerise sur le gâteau ? Plus d’une centaine de clients mondiaux confiants, un tour de table à 215 millions de dollars déjà récolté, et la rumeur d’une prochaine levée à 500 millions d’euros. On aimerait dire que l’IA compressée est un petit monde… mais vu la croissance de Multiverse, il ressemble de plus en plus à un univers en expansion rapide.

À ce rythme-là, il va falloir bientôt renommer la startup en “Multiverse (Très) Computing” ! Parce qu’en IA, rien ne se perd… tout se compresse.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.