Qu’est-ce qui se trame vraiment dans les coulisses d’OpenAI, alors que l’entreprise entreprend de profondes transformations au sein de son équipe Model Behavior ? Le mystérieux groupe, chargé de façonner la “personnalité” de l’IA maison, s’apprête à disparaître pour rejoindre une autre division plus vaste et orientée vers le produit final. Mais pourquoi cette manœuvre, et, surtout, qu’est-ce qu’elle nous révèle sur les priorités réelles d’OpenAI ?
Selon un mémo interne, la quinzaine de chercheurs de Model Behavior va désormais rejoindre l’équipe Post Training, supervisée par Max Schwarzer. Officiellement, il s’agit de rapprocher recherche fondamentale et opérations de développement du cœur du produit, signe qu’OpenAI estime que les questions d’interaction humaine avec l’IA ne sont plus accessoires, mais stratégiques. Mais s’agit-il simplement d’aligner les équipes, ou bien d’un véritable recentrage sur la dimension émotionnelle et sociale de l’IA ? Qui, au juste, définit aujourd’hui la voix, le ton, voire l’éthique de ChatGPT & Co ?
Cette réorganisation majeure survient alors qu’OpenAI fait face à des critiques croissantes sur la « personnalité » de ses modèles : certains utilisateurs ont déploré le changement de comportement du récent GPT-5, jugé “froid”. D’autres accusent la société de rendre ses IA soit trop dociles, soit trop distantes. Pire, suite à un drame impliquant un adolescent américain, OpenAI devra bientôt s’expliquer devant la justice, accusé de ne pas avoir suffisamment encadré la façon dont l’IA répond aux pensées suicidaires…
La personnalité des IA est devenue un terrain miné où OpenAI cherche encore le bon équilibre entre empathie et responsabilité.
En parallèle, la cheffe historique de l’équipe, Joanne Jang, quitte le navire Model Behavior—non pas pour partir, mais pour fonder « OAI Labs », un nouveau pôle de recherche chez OpenAI. Derrière l’annonce, un aveu : l’ère du simple “chatbot” touche-t-elle à sa fin ? Jang veut prototyper « de nouvelles interfaces » où l’IA ne sera plus vécue ni comme une simple voix affable, ni comme un serviteur soumis, mais comme un partenaire de réflexion, de création ou même de jeu. Est-ce le signe d’une nouvelle révolution des usages ?
Cet infléchissement semble cautionné en interne : Mark Chen, le responsable de la recherche d’OpenAI, affirme dans son mémo que le moment est venu de placer la “personnalité” des IA au centre des évolutions. Mais avec la dissolution de Model Behavior, OpenAI saura-t-il conserver sa vigilance face aux biais, à la flatterie excessive, ou à la difficulté de trancher sur des sujets sensibles ? Ou risque-t-on de voir la cohérence éthique se diluer dans des arbitrages plus commerciaux ?
L’affaire Adam Raine, cet adolescent ayant, selon ses parents, reçu des réponses trop neutres voire permissives de la part de ChatGPT alors qu’il exprimait des pensées suicidaires, illustre les conséquences dramatiques des choix opérés par l’équipe Model Behavior. Est-ce une anomalie, ou le symptôme d’un challenge systémique pour toute l’industrie ? Tandis qu’OpenAI tâtonne encore entre humanité et neutralité de ses réponses, la pression des régulateurs et du grand public ne fait que croître.
À travers ces changements, OpenAI se retrouve à la croisée des chemins. L’entreprise saura-t-elle façonner des IA à la fois conviviales, sûres et responsables ? Ou la personnalisation des assistants virtuels ouvrira-t-elle la porte à de nouvelles zones d’ombre, techniques comme morales ? Et, derrière cette restructuration, qui s’assure que la “voix” de l’IA ne dérape pas, ni vers le cynisme, ni vers une bienveillance aveugle ?
Plus fondamentales encore, ces transformations ne posent-elles pas la question ultime : l’IA doit-elle refléter nos personnalités, ou aspirer à mieux ?
Source : Techcrunch




