La technologie peut-elle vraiment protéger l’identité numérique des créateurs face à l’intelligence artificielle ? C’est la question que soulève la dernière annonce de YouTube : sa technologie de détection de similitude, expérimentée discrètement ces derniers mois, est désormais disponible pour les créateurs membres de son Programme Partenaire. Mais comment fonctionne vraiment cet outil, et est-il à la hauteur des enjeux éthiques et techniques auxquels font face les influenceurs et célébrités ?
Selon YouTube, cette innovation technologique s’attaque à un problème brûlant : la multiplication des contenus générés par intelligence artificielle imitant visage et voix sans consentement. Jusqu’ici, qui contrôlait l’usage de l’image d’un créateur sur la plateforme ? L’affaire récente où la société Elecrow aurait utilisé la voix d’un Youtubeur célèbre pour promouvoir ses produits, sans son accord, n’est qu’un exemple parmi tant d’autres. Faut-il craindre une explosion des « deepfakes » malveillants ?
Le processus d’activation de l’outil appelé « likeness-detection » est-il réellement accessible et fiable ? Les créateurs doivent naviguer vers l’onglet « Similarité », accepter le traitement de leurs données, puis s’identifier par une vérification biométrique (selfie vidéo et pièce d’identité). Ceux qui franchissent ces étapes peuvent alors scanner tous les contenus les concernant et demander leur retrait suivant les règles de confidentialité. Mais YouTube sera-t-il capable de traiter les demandes massives qui risquent d’affluer ? Et qu’en est-il de la protection de la vie privée, aussi bien des créateurs que des utilisateurs ordinaires ?
YouTube prend les devants sur l’IA, mais sa solution répond-elle à toutes les inquiétudes des créateurs ?
On remarque aussi que YouTube laisse une porte de sortie : à tout moment, le créateur peut décider d’arrêter d’utiliser l’outil, et YouTube cessera les analyses sous 24 heures. Pourtant, ce désengagement temporaire garantit-il vraiment qu’aucune donnée ne sera conservée ? Le modèle s’inspire des partenariats récemment noués avec d’importantes agences, dans l’objectif déclaré d’apaiser les inquiétudes des célébrités et sportifs, mais suffit-il à anticiper les dérives possibles de l’IA sur le long terme ?
Un autre chantier vient d’être ouvert sur le plan législatif. En avril, YouTube a manifesté son appui au NO FAKES Act, une proposition américaine pour encadrer légalement les répliques IA de l’image et de la voix. Faut-il alors compter sur une synergie entre acteurs privés et États pour freiner la désinformation et garantir la sécurité numérique ? Ou la responsabilité incombe-t-elle toujours d’abord aux géants du web ?
La rapidité de déploiement de cette technologie – seulement quelques mois de test avant la généralisation – fait s’interroger sur les autres plateformes sociales. Vont-elles suivre l’exemple, ou ce type de protection restera-t-il réservé à ceux ayant les moyens et l’audience ? Les internautes anonymes ont-ils eux aussi le droit de réclamer la suppression de leur « double » généré par l’IA ?
Pour l’instant, la balle reste dans le camp des créateurs « éligibles » et des législateurs. Cette nouvelle frontière entre vrai et faux, humain et machine, est-elle en train de redessiner la confiance dans les plateformes vidéo ?
Source : Techcrunch




