Comment une bataille judiciaire entre OpenAI et le New York Times pourrait-elle bouleverser le futur de l’intelligence artificielle et la vie privée de ses utilisateurs ? La Silicon Valley doit-elle choisir entre transparence, impératifs juridiques et respect des promesses de confidentialité qu’elle fait à ses clients ? C’est à cette intersection explosive que se trouve aujourd’hui OpenAI, la société à l’origine de ChatGPT, visée par une décision de justice inédite.
Tout commence avec une injonction ; une décision du juge Ona T. Wang ordonne à OpenAI de conserver et d’isoler toutes les données de conversations issues de ChatGPT, même lorsque des utilisateurs en ont demandé la suppression. Est-ce une simple mesure technique, ou bien un virage majeur sur la route du droit à l’effacement, sacro-saint principe du numérique ? Le juge justifie sa décision par la nécessité d’établir l’ampleur des prétendues violations de droits d’auteur dont accuse le New York Times, alors même qu’OpenAI évoque un impact “significatif” sur la vie privée de ses utilisateurs.
Pourquoi cette conservation des données est-elle jugée cruciale par le New York Times ? Selon le média, il s’agit d’évaluer de façon précise combien de fois ChatGPT et des technologies associées à Microsoft auraient incité – ou permis – à des utilisateurs de plagier et de recopier des contenus protégés. Le tribunal, ne prenant pas à la légère ces soupçons, a décidé de laisser l’affaire suivre son cours, permettant ainsi à l’un des premiers grands procès autour de l’IA générative et du droit d’auteur d’avoir lieu sur le sol américain.
Entre vie privée et préservation de la preuve, la bataille judiciaire réinvente les frontières de l’IA moderne.
Pour OpenAI, l’affaire va bien plus loin que de simples violations présumées de copyright : selon un message officiel, la requête du tribunal “va à l’encontre des engagements de confidentialité” pris avec les utilisateurs – et constitue à ses yeux un dangereux précédent. Faut-il s’attendre à voir d’autres juges réclamer le stockage des conversations, alors même que les promesses de confidentialité sont devenues un argument commercial fort dans le secteur de l’IA ?
Les débats ne font que commencer : dans cette affaire et bien d’autres, comme celles impliquant Google et une multitude d’autres entreprises tech, la question fondamentale reste celle du “fair use”. Peut-on vraiment assimiler l’entraînement des IA sur des données protégées à une exception légale ? Les industries culturelles et médiatiques dénoncent une appropriation abusive qui met en péril leurs modèles économiques, tandis que les géants technologiques agitent la menace d’un ralentissement radical de l’innovation si les juges leur donnent tort.
Au-delà du procès, quelle société numérique sommes-nous en train de construire ? Une société où la protection de la propriété intellectuelle prime sur les droits individuels à la vie privée ? Ou l’inverse ? Si la justice tranche en faveur du New York Times, peut-on s’attendre à une judiciarisation massive dans l’usage de l’IA en entreprise et dans le grand public, avec à la clé des obligations de conservation des données au détriment des utilisateurs ?
Dans ce bras de fer où se mêlent enjeux économiques, technologiques et éthiques, la question devient pressante : jusqu’où la justice peut-elle aller pour garantir les droits des créateurs sans compromettre l’un des fondements de la confiance numérique, la protection de la vie privée ?
Source : Engadget