Peut-on vraiment recréer l’expérience d’essayage en magasin juste à l’aide d’un selfie ? Cette question, qui semblait relever de la science-fiction il y a quelques années, revient aujourd’hui sur le devant de la scène avec l’annonce de Google et sa nouvelle version du service d’essayage virtuel. Mais derrière ce nouvel usage, quelles promesses – et quels défis – se cachent pour les consommateurs et l’industrie de la mode ?
Jusqu’ici, les utilisateurs devaient télécharger une photo de leur corps entier pour tester virtuellement les vêtements repérés sur Google Shopping. Mais désormais, un simple selfie suffit. C’est grâce au modèle d’intelligence artificielle “Nano Banana, Gemini 2.5 Flash Image”, que Google prétend être capable de générer une version digitale ultra-réaliste du corps à partir d’un simple portrait. La technologie est impressionnante, mais comment assure-t-elle un rendu fidèle de toutes les morphologies ?
Le consommateur reste maître de son expérience : il peut choisir sa taille habituelle, générer plusieurs avatars et sélectionner celui qui lui ressemble le plus. Si l’option ne lui convient pas, il a aussi la possibilité d’utiliser une photo en pied ou d’opter pour des modèles proposés par Google, couvrant une large diversité de silhouettes. Cette personnalisation accrue va-t-elle suffire à conquérir la confiance des utilisateurs, traditionnellement méfiants vis-à-vis des outils IA appliqués à leur image ?
Le selfie devient la clé d’un essayage virtuel où la frontière entre réalité et simulation s’amincit dangereusement.
Cette innovation n’est pas isolée : elle s’inscrit dans une stratégie plus large de Google autour de l’essayage virtuel, déjà amorcée avec le lancement de la fonctionnalité “try-on” en 2025. Il suffit de cliquer sur “essayez-le” sous un article dans les résultats de recherche ou sur Google Shopping pour commencer l’expérience. Mais ce n’est pas tout : Google propose aussi, via l’application dédiée Doppl, un espace où les utilisateurs visualisent des vêtements sur leur avatar et reçoivent des recommandations personnalisées sous forme de flux shoppable, s’inspirant de TikTok ou Instagram pour séduire un public déjà habitué à l’achat impulsif et visuel. Cette convergence entre découverte, personnalisation et commerce n’ouvre-t-elle pas la porte à une toute nouvelle ère du e-commerce ?
L’introduction d’un fil de recommandations directement achetables et d’avatars générés automatiquement questionne logiquement sur la fiabilité de l’outil, la sécurité des données personnelles et l’omniprésence algorithmique dans nos choix vestimentaires. Est-il possible, via une simple photo, de simuler avec précision le tombé d’un vêtement, ses couleurs ou encore ses matières ? Et comment éviter que les préférences imposées par la machine ne biaisent nos envies – ou pire, nos achats ?
À qui profitera cette nouvelle technologie ? Aux consommateurs, qui pourraient économiser du temps et réduire les renvois de commandes mal adaptées, ou bien aux géants du web qui, grâce à la collecte des données morphologiques et stylistiques, peaufineront encore un peu plus leurs profils publicitaires ? Se cacherait-il, derrière l’innovation, un nouveau moyen d’influencer subtilement les consommateurs ?
Finalement, alors que Google déploie dès aujourd’hui cette fonctionnalité aux États-Unis, il reste à voir comment le grand public s’en emparera. L’avenir du shopping virtuel repose-t-il sur la promesse de l’essayage via selfie, ou ce nouvel eldorado numérique cachera-t-il bientôt ses propres pièges ?
Source : Techcrunch




