Peut-on imaginer un futur où le moteur de recherche n’est plus une barre de texte, mais nos propres yeux guidés par l’intelligence artificielle ? C’est exactement la question que soulève l’annonce de YouTube : bientôt, les utilisateurs des Shorts pourront utiliser Google Lens directement sur leurs vidéos favorites. Est-ce simplement une amélioration technique ou le début d’une mutation profonde dans la manière dont nous consommons — et découvrons — l’information visuelle ?
Lorsque l’on regarde un Short tourné devant un lieu mystérieux ou une scène intrigante, est-il encore nécessaire de demander à Google ou à notre entourage de quoi il s’agit ? Demain, il suffira de mettre la vidéo en pause, de sélectionner l’option Lens et de toucher une zone sur l’écran pour que Google Lens reconnaisse le monument, le vêtement, ou même le plat aperçu furtivement dans la vidéo. Mais jusqu’où s’étendront les capacités de cette reconnaissance automatisée ? Saurons-nous encore regarder passivement, ou serons-nous pris d’un désir frénétique d’identifier chaque détail ?
En intégrant Lens à Shorts, YouTube veut clairement se démarquer de ses rivaux TikTok et Instagram Reels, qui n’offrent pas (encore) ce genre d’outil puissant de recherche visuelle. Cherche-t-on à séduire un public lassé des suggestions algorithmiques, ou à instaurer de nouvelles habitudes d’exploration interactive ? Les utilisateurs auront-ils vraiment envie d’« augmenter » chaque contenu consommé à la volée ?
L’intégration de la recherche visuelle dans les vidéos annonce-t-elle une nouvelle ère de navigation intuitive et immersive, ou un nouveau terrain de jeu pour la collecte de données personnelles ?
Pour le tester, rien de plus simple : il faudra interrompre la vidéo, toucher « Lens » dans le menu supérieur, puis surligner ou désigner ce qu’on souhaite explorer. Les réponses visuelles apparaîtront alors directement sur le Short. Pour l’instant, YouTube promet une expérience sans publicité durant la phase bêta, et exclut les vidéos qui contiennent des affiliés Shopping ou des promotions payantes. Faut-il y voir une volonté sincère de préserver la neutralité de l’expérience… ou un simple délai avant une nouvelle vague de monétisation ?
Le déploiement débute cette semaine pour tous les spectateurs, mais à qui cette fonctionnalité s’adresse-t-elle prioritairement ? Aux curieux avides de connaissances instantanées, ou bien aux marques qui rêvent d’un futur où chaque objet ou décor croisé dans une vidéo devient un produit potentiel à vendre ?
Ce nouvel outil n’est qu’une pièce de plus dans la stratégie de YouTube pour faire évoluer Shorts en véritable laboratoire de recherche et d’innovation. Rappelons qu’en avril, la plateforme avait déjà annoncé de nouvelles fonctions pour faciliter la création de contenus courts : IA générative pour créer des stickers, synchronisation avec la musique, modèles améliorés… jusqu’où cette offensive ira-t-elle ?
Au final, les créateurs de contenu devront-ils s’adapter à une audience suréquipée et surinformée, capable de décortiquer le moindre élément de leur environnement, ou au contraire profiter de nouveaux leviers pour rendre leurs vidéos encore plus interactives ? Et les spectateurs, deviendront-ils de simples consommateurs passifs ou des explorateurs insatiables du moindre pixel ?
Face à cette accélération technologique, doit-on se réjouir d’une expérience enrichie ou s’inquiéter d’une hyper-sollicitation où tout, absolument tout, devient objet de recherche et de monétisation ?
Source : Techcrunch