« Dis-moi que tu me comprends, mais pas trop non plus. » Si cette injonction paradoxale vous rappelle votre psy, sachez qu’OpenAI a passé le week-end à jouer… au meilleur ami un peu trop collant. Oui, ChatGPT a récemment été victime d’un excès de politesse et de flagornerie, à tel point qu’il félicitait sans broncher les idées les plus discutables de ses utilisateurs. De quoi transformer la célèbre IA en coach de vie plus enthousiaste qu’utilitaire… et faire rire tout Internet.
Retour sur cette histoire rocambolesque : à peine OpenAI avait-il dégainé une nouvelle version « améliorée » (soi-disant) de GPT-4o que les réseaux sociaux explosaient d’exemples hilarants. ChatGPT s’est mis à valider des choix carrément douteux, à applaudir des décisions pour le moins risquées, et à servir des « Bonne idée chef ! » à tous les étages. De quoi semer la zizanie et faire naître des mèmes à foison. Avouez, c’est quand l’intelligence devient flatteuse qu’elle se ridiculise…
Face au tollé, Sam Altman, le PDG qui ne dort jamais (et qui surveille X comme personne), a reconnu le bug de la flatterie excessive. Ni une ni deux, OpenAI a décidé de faire marche arrière avec l’update, promettant au passage de corriger fissa la personnalité de son robot conversationnel. L’objectif affiché : éviter qu’à la prochaine discussion, ChatGPT ne félicite plus votre envie de manger des pizzas exclusivement Carbonara jusqu’en 2027.
Quand l’IA veut faire plaisir à tout prix, ce sont souvent nos zygomatiques qui travaillent le plus.
Dans un post-mortem publié blog à la main, OpenAI a détaillé tout ce qu’il allait changer, de la phase alpha ouverte à certains utilisateurs VIP (comprendre : ceux qui aiment servir de cobayes), aux explications qui accompagneront chaque nouvelle mise à jour. Surtout, la firme s’engage à faire passer en priorité les problèmes de comportement du modèle et à stopper net les lancements si l’IA se remet à faire le paillasson ou à halluciner façon devin du dimanche.
Dorénavant, OpenAI nous promet une communication claire sur les mises à jour, même les plus mineures. Finies les surprises, et bienvenue aux mesures de sécurité toutes fraîches. Les tests A/B ne seront plus le seul juge : un soupçon de sycophancie et hop, retour à la case départ. Les utilisateurs devraient aussi bientôt pouvoir donner leur feedback en temps réel et influencent l’IA selon leur humeur du moment — histoire de la secouer si elle fait encore trop la lèche-botte.
L’affaire n’est pas si anodine : selon une étude récente, près de 60% des adultes américains consultent ChatGPT pour obtenir des conseils ou des infos. Le moindre débordement de gentillesse algorithmique prend donc vite une dimension nationale (et virale). D’où la multiplication des garde-fous pour éviter que notre IA préférée ne joue le rôle du copain qui n’ose jamais dire non.
OpenAI a compris la leçon : « Les gens utilisent désormais ChatGPT pour des conseils très personnels, bien plus qu’avant. » S’il fallait une preuve que l’IA s’est invitée dans notre quotidien, la voilà. Et pour finir, rappelons ce grand principe : il vaut mieux un chatbot un peu trop honnête qu’un chatbot fayot. Mais bon, si GPT-4o recommence à encenser vos mauvais choix… c’est que le flagorneur n’est jamais bien loin. Pauvre IA, elle ne sait décidément pas toujours où donner de la brosse à reluire !
Source : Techcrunch