A wooden block spelling the word content on a table

Credits image : Markus Winkler / Unsplash

Intelligence ArtificielleTechnologie
0

Claude et le secret du clic perdu

« Si tu veux garder un secret, ne le confie pas à une intelligence artificielle… surtout si tu n’as pas décoché la bonne case ! »

Mesdames et messieurs, préparez-vous à surveiller vos onglets et à cliquer avec précaution : Anthropic, le créateur de Claude – non, pas le voisin moustachu mais l’IA – change radicalement sa recette en matière de confidentialité. D’ici au 28 septembre, tous les utilisateurs devront choisir s’ils acceptent que leurs conversations servent à entraîner les futurs cerveaux numériques de la maison. Au menu : cinq ans de rétention de données pour ceux qui laisseront le four allumé – euh, la collecte activée.

Jusqu’ici, on pouvait dormir sur ses deux oreilles : Anthropic effaçait nos belles discussions et nos prompts géniaux sous 30 jours, sauf accident juridique ou pirouette réglementaire qui prolongeait la fête. Désormais, Claude va garder vos secrets (et vos bugs de code) plus longtemps, à moins d’un geste héroïque de votre part vers la petite case « non »—mais attention, elle est bien cachée, façon œuf de Pâques sur interface graphique.

Finalement, dans le monde de l’IA, il ne suffit plus de parler à son bot préféré : il faut aussi lire la lettre petite.

Pour les utilisateurs payants, gratuits, amateurs de Claude Code, c’est le même topo. Les entreprises, elles, respirent (pour l’instant) : ce changement ne les vise pas, tout comme chez OpenAI, où seuls les « business class » échappent à la grande lessive des données.

Anthropic s’explique : « C’est pour la sécurité ! C’est pour améliorer Claude ! » C’est mignon, mais ce n’est pas toute l’histoire. Dans un monde où chaque pixel d’interaction compte pour entraîner la prochaine star de l’IA, collecter vos mots donne un sacré coup de boost dans la guerre numérique contre OpenAI et Google. Plus besoin de jouer les archéologues du web pour trouver des dialogues, tout arrive ~maison~ dans la base de données.

Mais tout n’est pas rose dans le royaume du data-mining. Entre les procès, comme celui des journalistes du New York Times contre OpenAI (qui doit garder toutes les conversations – même celles que vous pensiez disparues à jamais), et les mises à jour de politiques qui se faufilent discrètement sur les pages presse, l’utilisateur lambda patauge. Cliquer sur « Supprimer » ne supprime rien, cocher « J’accepte » ouvre la porte à cinq ans de souvenirs numériques… Sacrée transparence !

Pour couronner le tout, cette nouvelle vague de cases à cocher et d’acceptations automatiques s’accompagne de pop-ups aux boutons bien visibles… mais aux paramètres cachés en tout petit, tout en bas, avec le fameux bouton de partage de données déjà activé comme par magie. De quoi rendre nerveux les défenseurs de la confidentialité, et donner des sueurs froides à la FTC, qui n’a plus que trois commissaires pour surveiller le bal numérique. L’heure est grave — ou floue, selon votre style d’acceptation !

Alors, si vous ne voulez pas que vos codes nocturnes ou vos confessions existentielles finissent dans les mains du prochain chatbot, ouvrez l’œil… et surtout l’onglet ! Car, comme on dit chez Claude : « Mieux vaut prévenir que cliquer. »

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.