A 3D model of a vehicle with a helicopter on top of it

Credits image : Sergey Koznov / Unsplash

Intelligence ArtificielleRéseaux sociaux
0

Les réseaux sociaux sont-ils réellement capables de bloquer le scraping et l’entraînement de l’IA sur nos données ?

Devons-nous nous inquiéter de la manière dont les réseaux sociaux protègent réellement nos données face à l’essor de l’intelligence artificielle ? Cette question se pose avec d’autant plus d’acuité alors que Mastodon vient d’annoncer une évolution majeure dans ses conditions d’utilisation, rejoignant ainsi la tendance observée chez X (ex-Twitter) ou Reddit. Pourquoi cette vague soudaine de fermeté contre le scraping et l’entraînement des modèles d’IA sur le contenu utilisateur ?

En effet, Mastodon a informé ses membres que toute utilisation de données par “grattage” — que ce soit pour constituer des archives ou entraîner de grands modèles de langage (LLM) — est désormais strictement interdite. S’agirait-il d’une réaction épidermique face à OpenAI ou à d’autres géants de l’IA, ou d’un réel sursaut pour protéger la vie privée ? Comment les plateformes tracent-elles les limites entre le partage public de contenus et l’exploitation commerciale de ceux-ci par des robots ou des entreprises spécialisées dans l’IA ?

Si le message de Mastodon semble clair — la collecte automatisée par scraper, spider ou tout système automatisé est bannie —, quelle est sa portée réelle ? Les nouvelles règles, valables à partir du 1er juillet, ne concernent en effet que le serveur Mastodon.social, l’une des multiples instances du vaste “fediverse” : un ensemble de réseaux décentralisés. Peut-on alors parler d’une protection efficace, ou s’agit-il d’une simple rustine sur un réseau éclaté où chaque instance décide de ses propres règles ?

Face à la fragmentation du fediverse, chaque instance détient la clef de sa propre stratégie de défense contre les géants de l’IA.

D’ailleurs, que valent ces barrières si d’autres serveurs restent accessibles aux sociétés d’IA ? Les utilisateurs ont-ils conscience que leur présence sur un serveur “plus permissif” pourrait exposer leurs données à toutes sortes d’extractions automatisées ? Serions-nous à l’aube d’un internet à deux vitesses, où seules les plateformes dotées de ressources juridiques solides réussiront à imposer leurs conditions ?

La tendance s’étend-elle au-delà de Mastodon ? Il semble bien que oui. Reddit, OpenAI, ou encore The Browser Company ont récemment durci leurs propres conditions dans le même sens. Cette épidémie de fermetures légales signalerait-elle un basculement du rapport de force : les réseaux sociaux, longtemps gourmandes de nos données, tenteraient-ils enfin de dresser des barrières là où ils étaient autrefois les premiers facilitateurs de scraping ?

Au-delà de la protection contre le scraping, Mastodon profite de cette refonte pour relever l’âge minimum d’inscription à 16 ans au niveau mondial (contre 13 ans précédemment aux États-Unis). Serait-ce le signe d’une volonté accrue chez certains acteurs du web social de faire primer la responsabilité et l’éthique sur la simple quête d’utilisateurs ?

Finalement, cette vague de restrictions suffira-t-elle vraiment à freiner la collecte sauvage de données sur Internet, ou s’agit-il d’un simple rideau de fumée difficilement applicable ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.