« Parler à ChatGPT de ses problèmes, c’est comme crier ses secrets dans la file du Monoprix : c’est pratique, mais question discrétion, on repassera ! » Voilà ce qui résume l’état actuel de la confidentialité dans l’IA conversationnelle, selon Sam Altman, le big boss d’OpenAI. Alors, avant de pleurer sur l’épaule (virtuelle) de votre application préférée, un peu de contexte s’impose.
Lors du podcast This Past Weekend w/ Theo Von, Altman n’a pas tourné autour du pot : demander à ChatGPT d’être votre psy, votre coach de vie ou votre conseiller conjugal n’est pas seulement une idée originale… c’est aussi un vrai casse-tête pour la confidentialité. Autrement dit, aucun secret médical, amical ou sentimental, partagé avec l’IA n’est vraiment… secret.
« Les gens partagent des trucs ultra-personnels avec ChatGPT, parfois plus qu’avec leur propre famille ! » s’étonne Altman, tout en admettant que, contrairement à un avocat, un médecin ou même votre chat (qui de toute façon n’écoute pas), votre copain numérique n’offre aucune protection légale. Autrement dit, si demain la justice lui demande ce que vous lui avez confié, elle devra tout balancer — même votre question existentielle sur les tacos à la banane.
En attendant, raconter sa vie à ChatGPT, c’est un peu comme envoyer son journal intime… à une entreprise californienne.
Et ce n’est pas que de la théorie ! OpenAI se bagarre déjà en justice contre le New York Times, qui voudrait fouiller dans les conversations de centaines de millions d’utilisateurs (sauf ceux qui paient pour la version pro, eux ont droit à un peu plus d’intimité… le privilège, c’est cher payé !). Si la justice dit oui, bonjour la boîte de Pandore pour toutes les futures demandes d’accès par la police ou d’autres tribunaux : vos états d’âme seraient alors à portée de subpoena.
Sam Altman ne cache pas son inquiétude : « Je trouve que c’est complètement tordu. On devrait avoir le même niveau de secret avec une IA qu’avec un pro de santé… mais même il y a un an, personne ne pensait à ça ! » Pas faux Sam, même si on imaginait déjà que confier ses pires hontes à un chatbot n’était pas la meilleure idée depuis l’invention du sandwich triangle.
Pour ceux qui n’ont pas suivi le feuilleton judiciaire US, rappelons que des internautes ont déjà changé d’application de suivi de règles après la révocation du droit à l’avortement, par peur qu’on fouille leurs données. L’appétit soudain pour la discrétion n’est donc pas réservé aux psychologues amateurs.
En conclusion, Sam Altman lui-même préfère attendre des réponses claires sur la vie privée avant de s’épancher auprès de son bébé, ChatGPT, comme il l’a confié à Theo Von. Alors pour vos secrets, gardez à l’esprit qu’une IA n’a pas (encore) prêté serment d’Hippocrate… ni de confident !
Confier ses angoisses à ChatGPT, c’est bien… mais c’est comme envoyer un SMS à son ex : il faut être prêt à ce que ça ressorte un jour !
Source : Techcrunch




