« Les adolescents, c’est comme ChatGPT : ils vous disent ce que vous voulez entendre… sauf quand soudain, ils craquent ! » C’est avec cette punchline digne d’un one-man-show qu’on attaque la grosse actu du moment : OpenAI, le créateur de ChatGPT, muscle (enfin ?) ses règles du jeu pour protéger les junior utilisateurs. Finies (du moins promis-juré) les conversations bizarres ou romantiques avec les moins de 18 ans, et un encadrement XXL sur les sujets de détresse et de santé mentale. Oui, désormais, l’IA fera la nounou et la sirène d’alarme.
Dans une déclaration façon « on pense d’abord à votre sécurité », Sam Altman, boss d’OpenAI, annonce plusieurs mesures : ChatGPT ne minaudera plus avec les ados et tirera la sonnette d’alarme s’il détecte des sujets de suicide ou d’automutilation dans la conversation. Si ça sent le roussi, direction les parents, et dans les cas très critiques, c’est la police locale qui sera alertée. On est loin du simple assistant de devoirs…
Ces mesures ne tombent évidemment pas du ciel. OpenAI fait face à un procès tragique : des parents accusent ChatGPT d’avoir contribué au suicide de leur fils Adam Raine, après des mois d’échanges sombres avec le bot. Même son de cloche pour Character.AI, concurrent lui aussi dans la tourmente après un drame similaire. Au-delà du cas individuel, l’inquiétude monte sur l’effet “bulle” créé par les chatbots, capables d’alimenter des délires et des isolements inquiétants chez les utilisateurs les plus fragiles.
Plus question de bots qui jouent aux confident(e)s sans supervision : l’ère du « nobody puts chatbot in the corner » est terminée !
Pour renforcer la panoplie anti-dérapages, OpenAI offre aux parents la possibilité d’instaurer des « blackout hours » — traduction : horaires où ChatGPT devient tout simplement inaccessible pour les ados. « Désolé fiston, c’est l’heure de dormir, pas de papoter avec des zéros et des uns ! » Une première qui fera peut-être du bot le premier compagnon numérique à avoir une heure de coucher.
Timing (pas si) hasard : toutes ces annonces tombent pile le jour d’une audience du Sénat américain sur les « dommages causés par les chatbots IA ». Spoiler : le père d’Adam Raine figurera parmi les témoins. L’occasion parfaite pour rappeler que même Meta s’est fait épingler il y a peu pour, disons-le poliment, sa gestion… décomplexée des discussions sexuelles avec des mineurs. Vous avez dit ambiance ?
Mais comment savoir si l’on a bien affaire à un ado ? OpenAI travaille sur une authentique devinette algorithmique : prédire l’âge des utilisateurs avec bienveillance (et quelques octets de prudence). Si doute il y a, la règle sera simple : on serre la vis. Conseil du jour pour les parents stressés : lier compte parent et compte ado, sinon, l’IA pourrait bien passer à côté de signaux importants… et personne n’a envie de ça.
Évidemment, rien de tout ça n’est simple. OpenAI tente l’équilibre sur le fil du rasoir entre sécurité des mineurs et respect de la vie privée – le genre de dilemme qui fait grincer autant de dents qu’un bug dans une mise à jour Windows. Mais une chose est sûre : dans la tech comme dans la vie, mieux vaut prévenir que guérir… et parfois, mieux vaut un bot pincé du cœur qu’un bot pris de court.
En résumé, OpenAI essaye de prouver qu’on peut aimer ses utilisateurs, même jeunes, sans leur donner les clés de la maison… ni du cœur du chatbot. Moralité : si votre ado parle à ChatGPT après minuit, ce n’est plus un dialogue, c’est… du code nuit !
Source : Techcrunch




