Jusqu’où l’influence de l’intelligence artificielle doit-elle s’infiltrer dans nos fils d’actualité ? TikTok, réseau social au milliard d’utilisateurs, semble vouloir laisser le choix à chacun… Mais la manœuvre est-elle vraiment aussi transparente qu’elle le paraît ?
Depuis quelque temps, l’application multiplie les annonces autour de l’IA. TikTok vient en effet de lancer un réglage inédit : il est désormais possible de doser, via l’outil « Manage Topics », la quantité de contenus générés par intelligence artificielle affichée dans le fil personnel For You. Un détail ? Pas tant que ça, quand on voit la vague d’innovations qui agite le secteur : Meta propose déjà un flux uniquement composé de vidéos IA avec Vibes, et OpenAI rivalise avec Sora, une plateforme sociale sur le même créneau. Pourquoi TikTok cède-t-il à cette pression ?
Quelles seront les conséquences pour nos usages ? N’y a-t-il pas le risque d’une bulle informationnelle, où le réel s’efface derrière des créations inondant les fils, parfois bien plus réalistes que ce que l’on imagine ? Depuis l’arrivée de Sora, certains utilisateurs profitent des outils IA pour alimenter la plateforme en contenus bluffants sur l’histoire, les célébrités ou l’actualité. Peut-on encore distinguer l’humain du synthétique ?
Cette montée de l’intelligence artificielle générative interroge sur la frontière entre le vrai et le fabriqué, mais aussi sur la capacité des plateformes à contrôler ce qu’elles laissent passer.
Face à la prolifération de faux, TikTok affirme renforcer la traçabilité avec l’expérimentation d’un filigrane invisible : seul l’algorithme pourra le détecter, rendant la suppression de la provenance IA bien plus complexe. Selon l’entreprise, cela complétera les solutions existantes comme les « Content Credentials » du C2PA, mais ces balises, si elles sont modifiables par l’édition ou la réimportation, suffisent-elles vraiment ?
En parallèle, TikTok promet de promouvoir l’éducation de ses utilisateurs grâce à un fonds d’alphabétisation à l’IA de 2 millions de dollars. La stratégie vise des associations et des experts capables de sensibiliser efficacement à la sécurité numérique. S’agit-il d’une simple opération de communication ou d’un virage sincère ?
L’option « AIGC » — pour Artificial Intelligence Generated Content — est pensée comme un filtre : on fait glisser le curseur pour voir plus ou moins d’IA. Mais dans une ère où les IA produisent désormais des images et des vidéos si réalistes que leur détection manuelle devient hasardeuse, qui contrôle vraiment la visibilité de ces contenus ? L’utilisateur, ou bien l’algorithme ?
Alors que la bataille des plateformes autour de la génération IA est lancée, la transparence promise sera-t-elle à la hauteur des enjeux, ou faudra-t-il bientôt accepter de vivre dans un monde où le doute plane sur chaque image ?
Source : Techcrunch




