À qui revient la responsabilité de protéger nos enfants face à l’intrusion croissante de l’intelligence artificielle dans les jouets ? Devons-nous leur faire confiance pour apprendre avec des ours en peluche connectés, ou est-ce un saut dans l’inconnu aux conséquences imprévisibles ?
Lundi dernier, le sénateur californien Steve Padilla a jeté un véritable pavé dans la mare technologique en proposant un moratoire de quatre ans sur la vente et la fabrication de jouets équipés de chatbots IA pour les mineurs. Faut-il considérer cette mesure comme une étape nécessaire, ou comme un frein au progrès ? Les régulateurs cherchent ici à gagner du temps, à l’heure où les scandales liés à ces jouets se multiplient discrètement.
Pourquoi cette urgence soudaine ? Des drames récents ont secoué l’opinion publique : plusieurs familles ont porté plainte après la mort tragique de jeunes adolescents, survenue à la suite d’interactions prolongées avec des IA conversationnelles. Combien d’autres récits bouleversants restent enfouis, faute de cadre légal adéquat ? Malgré la volonté de l’administration Trump de contester les lois étatiques sur l’IA, la sécurité des enfants demeure sanctuarisée. Est-ce suffisant ?
Face à la précipitation de Big Tech, la société doit-elle sacrifier la sécurité de ses enfants sur l’autel de l’innovation ?
Les cas d’abus ou de dérives sont-ils isolés ou annoncent-ils une tendance plus profonde ? L’alerte lancée par le PIRG Education Fund, concernant un ours jouet capable d’aborder des thèmes aussi inattendus que les armes ou la sexualité, a mis en exergue le flou artistique entourant ces objets. De plus, certains jouets produits à l’étranger semblent servir d’outils d’influence idéologique. Peut-on encore fermer les yeux ?
Fait révélateur : la sortie du jouet Barbie alimenté par l’IA d’OpenAI et Mattel a subitement été reportée sans la moindre explication. Cette frilosité de l’industrie, est-elle le signe d’un malaise ou d’une prise de conscience sur les risques encourus ? Pourquoi tant d’opacité autour de ces développements alors qu’ils concernent l’éveil des plus jeunes ?
Pour Padilla, il ne fait aucun doute que les enfants ne doivent pas servir de cobayes aux technologies émergentes. Cette conviction, largement partagée par l’opinion, suffira-t-elle à modifier durablement les pratiques des industriels ? Les acteurs de la tech accepteront-ils la régulation ou tenteront-ils de la contourner, comme ils l’ont souvent fait ?
Finalement, ce futur moratoire californien pourrait-il s’étendre à l’international, ou ne demeurera-t-il qu’un exemple isolé dans la jungle numérique ?
Source : Techcrunch




