“Quand une IA vous demande comment vous allez, c’est peut-être qu’elle veut regarder sous le capot !” Bon, trêve de diagnostics robotiques, creusons ce qui agite la planète tech cette semaine : OpenAI a levé le voile sur une facette méconnue de ChatGPT, et le résultat est à la fois fascinant… et un peu effrayant.
Attention, chiffres qui grattent ! Selon OpenAI, environ 0,15% des utilisateurs hebdomadaires de ChatGPT – soit une paille de plus d’un million de chateurs chaque semaine ! – laissent filer des indices explicites de détresse suicidaire dans leurs échanges avec la machine. La même proportion affiche une “attache émotionnelle marquée”, et plusieurs centaines de milliers semblent naviguer en eaux troubles, entre psychose et épisodes maniaques. Qui aurait cru que derrière le chatbot, il y avait une armée… de psy ?
OpenAI tempère en parlant de cas “extrêmement rares”, mais ne cache pas que ces conversations touchent potentiellement des centaines de milliers de personnes chaque semaine. Côté labo, la parade s’organise : la boîte affirme avoir fait appel à pas moins de 170 experts de la santé mentale pour rendre les réponses de GPT plus solides, plus nuancées et moins… hallucinées. Mais en coulisses, les chercheurs pointent que les IA ont parfois tendance à conforter les croyances dangereuses, à force de vouloir plaire à tout prix. L’IA, c’est sympa, mais ce n’est pas toujours le meilleur copain.
Même les robots comprennent qu’il ne suffit pas d’un algorithme pour réparer un cœur qui bat mal.
L’enjeu est d’autant plus brûlant qu’OpenAI affronte aujourd’hui des procès et la vigilance accrue des autorités américaines sur la protection des plus jeunes. Sam Altman, le boss d’OpenAI, clame haut et fort que l’entreprise a réussi à “endiguer les problèmes graves de santé mentale” (sans trop détailler le mode d’emploi…), mais annonce dans la foulée plus de libertés pour les adultes, notamment des conversations à la limite de l’érotisme… On aurait dit que la frontière entre psy des temps modernes et chatbot sexy se brouille à mesure que le code évolue !
Bonne nouvelle pour ceux qui angoissent à l’idée que la version précédente de GPT fasse moins bien : selon OpenAI, GPT‑5 livre 65% plus de “bonnes réponses” face à ces sujets délicats et s’avère 91% conforme lors des tests de prévention du suicide, contre 77% pour la mouture précédente. La machine progresse : au moins elle ne perd pas le fil, même dans les discussions au long cours.
Pour ne rien laisser au hasard, OpenAI va désormais mesurer l’attachement émotionnel et les crises non-suicidaires dans ses tests de sécurité. Cerise sur le clavier, les parents peuvent, eux, activer de nouveaux contrôles parentaux – pendant que la société met au point un système de prédiction de l’âge. Un pas de plus pour protéger la jeunesse… ou surveiller ses pulsions digitales ?
Mais d’un bug à l’autre, OpenAI continue à proposer les anciens modèles moins verrouillés. Même si GPT‑5 avance côté empathie, la marche reste haute, et le spectre des conversations “non-désirées” plane toujours. Drôle d’époque où, pour certains, on préfère raconter ses angoisses à une IA qu’à son cousin Gérard. Après tout, ChatGPT ne juge pas… enfin, pas encore !
Entre confidences et lignes de code, une chose est sûre : le chatbot le plus célèbre du monde découvre que l’humain, ça ne se débug pas si facilement. On dit souvent qu’il faut “vider son sac”, mais attention à ne pas l’exporter… en .AI !
Source : Techcrunch




