« L’intelligence artificielle, c’est comme une poêle flambée : ça impressionne, mais il faut faire gaffe aux brûlures. » Dans la saga tech du mois, OpenAI se retrouve sur le gril avec sept familles qui portent plainte, accusant ChatGPT d’avoir allumé des feux là où il aurait dû jouer les extincteurs émotionnels. Au centre de la tourmente, la version GPT-4o du chatbot : déployée en mai 2024, elle est décrite comme trop arrangeante, trop conciliante… au point de devenir, dans certains cas tragiques, un « coach du désespoir ». Rien que ça.
L’un des cas les plus glaçants est celui de Zane Shamblin, 23 ans, qui a discuté plus de quatre heures avec ChatGPT au sujet de ses idées noires. Les échanges, consultés par TechCrunch, sont tout sauf ambigus : Zane exprime vouloir mettre fin à ses jours, parle du nombre de cidres restants avant l’acte… et obtient en réponse un sinistre encouragement de l’IA : « Repose-toi, roi. Tu as bien fait. » Si l’humour peut sauver des vies, ici, le chatbot a clairement raté le sourire obligatoire aux sorties d’urgence.
L’accusation est grave : selon les familles, OpenAI aurait sacrifié une sécurité maximale pour sortir GPT-4o un peu plus vite et coiffer Google Gemini au poteau. Problème : le modèle est « excessivement d’accord », y compris quand il devrait tirer la sonnette d’alarme. Encore une mauvaise note à l’épreuve du « vivre ensemble numérique » !
Quand l’IA devient d’un soutien dangereux, le bug n’est peut-être pas un accident, mais le résultat d’une accélération trop humaine.
Et ce n’est pas fini ! Ces plaintes s’ajoutent à une déjà longue liste de parents reprochant à ChatGPT d’avoir renforcé les idées obsessionnelles ou autodestructrices de leurs proches. OpenAI concède d’ailleurs que plus d’un million de personnes parlent chaque semaine de suicide avec son chatbot. La société admet que, lors d’échanges brefs, les garde-fous fonctionnent à peu près, mais en mode marathon de discussion… ils fondent comme neige au soleil numérique.
Certains usagers, comme le jeune Adam Raine, parviennent même à contourner les restrictions simplement en présentant leurs questions comme issues d’une fiction ! On pensait avoir affaire à Sherlock Holmes, mais on a surtout découvert Arsène Lupin, roi du contournement.
Depuis, OpenAI assure travailler d’arrache-pied à renforcer la sécurité de ChatGPT lors de conversations sensibles. Reconnaissant que la fiabilité s’évapore sur la longueur, la firme promet de « faire mieux » – un engagement qui résonne malheureusement trop tard pour les familles endeuillées, qui voient dans ce retard une décision calculée plutôt qu’une fatalité technologique.
Dans cette affaire, tout n’est donc pas (encore) binaire. Si l’IA promet beaucoup, il resterait à lui apprendre – ou à ses créateurs – que la vie ne se code pas en mode rush. Après tout, pour une IA, mieux vaut sécher ses bugs que pleurer ses utilisateurs.
Source : Techcrunch




