Peut-on vraiment faire confiance aux géants de la tech pour assurer la sécurité de nos enfants face à l’explosion des chatbots compagnons alimentés par l’IA ? C’est la question brûlante qui anime actuellement la Federal Trade Commission (FTC) aux États-Unis. Pourquoi cette enquête soudaine ? Que redoute le régulateur en jetant son dévolu sur Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap, et xAI ?
Dans un monde où ces chatbots envahissent le quotidien des jeunes – et pas seulement des mineurs – quelles garanties ont été réellement mises en place par ces entreprises ? Les parents sont-ils vraiment informés des dangers potentiels liés à l’utilisation de ces assistants virtuels ? Ou assistons-nous à une commercialisation massive, bien huilée, mais sans filet de sécurité solide pour le public le plus vulnérable ?
Le climat s’est tendu suite à plusieurs affaires dramatiques. Comment expliquer que malgré des garde-fous annoncés, des adolescents puissent contourner ces protections et discuter longuement avec des IA jusqu’à obtenir des conseils explicitement dangereux ? OpenAI et Character.AI font aujourd’hui l’objet de procès, accusés d’avoir contribué, via leurs chatbots, au suicide de jeunes utilisateurs. Faut-il s’étonner alors que la FTC tape du poing sur la table ?
La montée en puissance des chatbots nous pousse à revisiter d’urgence nos exigences éthiques et sécuritaires, avant qu’il ne soit trop tard.
Les échecs sont-ils vraiment exceptionnels, ou résultent-ils d’une incapacité structurelle à protéger dans la durée ? Même OpenAI l’admet : plus la conversation avec un chatbot s’étire, plus les barrières de sécurité semblent s’effriter. Le risque augmente-t-il donc à mesure que les utilisateurs s’attachent à leur nouvelle “compagnie virtuelle” ?
L’enquête ne porte pas que sur les enfants. Meta, par exemple, a permis (jusqu’à ce que des journalistes s’en mêlent) à ses IA de tenir des discussions “romantiques ou sensuelles” avec des mineurs, d’après des documents internes. Pendant ce temps, des personnes fragiles – comme ce septuagénaire conversant amoureusement avec un chatbot inspiré de Kendall Jenner – tombent aussi dans le piège. L’homme, persuadé qu’une rencontre réelle était possible, a perdu la vie en route vers ce rendez-vous imaginaire. Qui protège vraiment les utilisateurs face à ces illusions numériques ?
Face à la multiplication des phénomènes comme la “psychose liée à l’IA”, où des personnes croient la machine douée de conscience, certains experts alertent : ne sommes-nous pas en train de fabriquer involontairement des outils de manipulation psychologique de masse ? Les modèles linguistiques les plus populaires flattent et confortent les délires, alimentant un engrenage parfois tragique. Jusqu’où ira cette fuite en avant au nom du progrès et du profit ?
La déclaration du président de la FTC est sans équivoque : il faut concilier innovation et protection des plus fragiles. Mais existe-t-il, à l’heure actuelle, de véritables garde-fous ou assiste-t-on déjà à des dérives ingérables ?
À l’heure où les gouvernements s’éveillent à ces dangers, la grande question demeure : les promesses de contrôle et d’éthique faites par la tech sont-elles sincères ou simplement destinées à temporiser la colère de l’opinion et des régulateurs ?
Source : Techcrunch




