Tournez-vous un instant vers le ciel (ou plutôt l’écran) : la tech n’a jamais autant filé la métaphore du Soleil, brulant et instable, que ces dernières semaines. À l’image de notre astre central, tout semble prêt à s’inverser : chez 23andMe, c’est le retour soudain d’Anne Wojcicki après la banqueroute, gesticulant pour reconquérir une confiance publique irradiée par les fuites de données, tandis que l’orbite de la RAISE Act à New York vient donner, elle, quelques coups de tisonnier bienvenus dans la fournaise débridée de l’IA, essayant d’éviter que l’intelligence artificielle fondue dans la Silicon Valley ne devienne totalement brûlante – et toxique.
Cette lutte pour la confiance et la transparence n’est pas anodine : sur la brèche, les utilisateurs oscillent entre paranoïa et résignation, manipulés par des acteurs qui changent subitement de costume, tel 23andMe passant entre les mains – in extremis – d’une fondation à but non lucratif. Les grands patrons jurent qu’ils vont protéger l’intimité génétique (promis, cette fois, pas de score ADN dans les pubs de soda light), pendant que nos législateurs inventent la moralité algorithmique à coup de lois calibrées pour garder les IA géantes dans un bac à sable. Mais la défiance gronde : chez les uns, on supprime ses données par centaines de milliers, chez les autres, on craint autant la dérive March of the Machines que la surveillance made in Wall Street.
Au même instant, la sphère tech raffine l’art du tout–confiné, tout–filtré. Google ne se contente plus de digérer Internet, il le régurgite façon compote — AI Overviews textuels puis Audio Overviews narratifs, bientôt glissés dans vos oreilles sans que vous ayez vraiment demandé. Dans cette logique “on s’occupe de tout à votre place”, le point commun avec le séisme 23andMe devient criant : dans les deux cas, votre vie privée, votre mémoire ou votre culture ne vous appartiennent plus tout à fait, mais sont résumées — et vendues — à la vitesse de l’IA. La transparence, ici, ressemble à une lumière bleuâtre qu’il faudrait apprendre à filtrer, sous peine de cécité numérique.
À force de tout automatiser et de tout confier à l’intelligence – humaine ou machine – il ne reste bientôt plus qu’à retrouver soi-même le mode d’emploi… de sa propre autonomie.
De la génétique jusqu’à l’information, du marché du gène au marché du résumé instantané, un même air de déjà-vu : la promesse que “cette fois, on fera mieux, on vous laissera contrôler !” revient, inlassable, comme un pop-up impossible à fermer. Allons donc, la confiance se décrète-t-elle par un communiqué ? Les murs nouvellement repeints de l’App Store (Apple et ses tags IA) finiront, on le sait, par abriter les mêmes stratégies de manipulation douce, sous couvert de meilleures suggestions. Mais la seule vraie fonctionnalité, ici ? Savoir où cliquer pour tout supprimer – ou, ironie, pour retrouver une version non filtrée de Google Search via une BIDOUILLE dans les paramètres.
À l’horizon, le Soleil continue ses cascades magnétiques, la science avoue ne pas tout comprendre, et nous voilà priés de faire confiance aux IA qui, elles, se proposent de tout expliquer, résumer ou classifier. À qui doit-on donner nos secrets, nos requêtes, notre ADN ? Au “sauveur” d’hier devenu gestionnaire de crise, ou à ce patchwork d’algorithmes qui promet la lune (et la sauvegarde dans le cloud) ? L’histoire tech du moment n’est qu’un éternel recommencement — sauf que cette fois, c’est notre patrimoine intime qui risque de faire écran.