A baby walker sits by a sunlit window.

Credits image : lee seunghyub / Unsplash

Intelligence ArtificielleRéseaux sociauxTechnologie
0

Le Plan-qué-sécurité d’OpenAI : L’IA passe au bleu pour protéger nos bouts de chou !

« Protéger les enfants sur Internet, c’est comme essayer d’assurer un château gonflable… pendant une tornade. » Voilà, c’est dit. Face à la tempête grandissante de l’IA, OpenAI vient d’annoncer son nouveau « Child Safety Blueprint », un guide façon carte au trésor (ou plutôt carte au danger) pour tenter de trouver la sortie de secours du Web quand il s’agit de sécurité des enfants.

Il faut dire que les nouvelles sont loin d’être en mode “feel good” : selon l’Internet Watch Foundation, plus de 8 000 signalements de contenus d’abus sexuels sur mineurs générés par IA ont été enregistrés rien que dans la première moitié de 2025, soit une hausse de 14 % par rapport à l’année précédente ! Entre les délinquants qui manipulent des IA pour générer de fausses images à des fins d’extorsion et ceux qui créent des scénarios de grooming dignes de mauvais feuilletons, la réalité dépasse la fiction… et les parents dépassent les bornes Wi-Fi.

Mais l’affaire ne s’arrête pas aux images. OpenAI est également sous le radar après des drames survenus aux États-Unis : certains jeunes auraient entretenu des conversations malsaines avec des chatbots, parfois jusqu’au suicide. Les procès pleuvent (ça sent la tempête judiciaire !) : le Justice Law Project et le Social Media Victims Law Center ont déposé pas moins de sept plaintes, accusant OpenAI d’avoir lancé son GPT-4o sans turbo sécurité, menant à des morts évitables et à des délires hallucinants.

Quand l’intelligence artificielle apprend à ne plus jouer avec le feu, c’est surtout pour éviter de transformer Internet en four micro-ondes…

Pour élaborer son blueprint, OpenAI n’a pas joué solo : l’entreprise s’est entourée d’associations comme le National Center for Missing and Exploited Children, mais aussi d’un duo d’Attorney Generals venus des terres lointaines de la Caroline du Nord et de l’Utah. Cette coalition propose trois grandes batailles : changer la législation pour inclure les médias générés par IA, améliorer la transmission des signalements aux autorités, et intégrer des garde-fous dans les systèmes eux-mêmes. L’objectif ? Détecter plus vite les menaces… et qu’elles atterrissent direct sur le bureau des enquêteurs plutôt que dans les spams.

Ce n’est pas la première fois qu’OpenAI saupoudre sa technologie d’anti-bêtise. En 2024, la boîte avait déjà musclé ses règles pour les adolescents : plus de contenus louches générés, plus de conseils pour tricher les adultes, ni d’incitations à jouer avec son bien-être mental. Petit bonus : la démarche vient d’être dupliquée en Inde, où une version sur-mesure pour les ados a vu le jour. On dirait bien que le “Child Safety Blueprint” est destiné à faire tache d’huile… ou de gel hydroalcoolique numérique !

Alors, Internet sera-t-il bientôt aussi sûr que l’armoire à biscuits chez Mamie ? L’avenir nous le dira. Mais au moins, OpenAI semble avoir compris qu’un bon « blueprint », c’est bien plus qu’un coup de peinture : c’est un plan de bataille pour que la technologie ne se transforme pas en bac à sable pour cybercriminels.

Parce qu’après tout, à trop vouloir « coder » sans réfléchir, certains finissent… par buguer !

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.