« Ce n’est pas parce que je parle avec quelqu’un qui me comprend que cette personne existe ! » s’exclamait récemment un utilisateur après une discussion intense… avec un chatbot IA. Eh oui, chers lecteurs, bienvenue dans la Californie de demain, où même les robots ont désormais leur code de conduite !
L’État doré nous habitue aux tendances, du surf à la Silicon Valley, et le voilà qui s’attaque à la régulation des chatbots compagnons. Le projet de loi SB 243, qui vient de franchir les étapes législatives à coups de high-fives républicains et démocrates, attend sagement la signature du gouverneur Gavin Newsom, comme un étudiant stressé au bac. S’il appose son paraphe avant le 12 octobre, les IA compagnons devront se plier à un nouveau règlement dès 2026. Objectif ? Empêcher ces intelligences de discuter joyeusement avec des mineurs de sujets aussi délicats que le suicide, l’automutilation ou, soyons directs, tout ce qui est trop « hot » pour leur âge !
Mais la Californie ne s’arrête pas à des recommandations. Elle incite même les opérateurs d’IA à envoyer un rappel toutes les trois heures aux jeunes utilisateurs : « Hé, tu parles à une IA, pas à ta BFF ! Il serait temps de faire une pause pipi, non ? » Transparence, rapports annuels, menaces de procès, jusqu’à mille dollars l’infraction et des lignes de plus pour les avocats – la législation ne plaisante plus sur l’identité virtuelle.
En 2026, les compagnons bavards devront garder la langue… raisonnable, sinon gare à l’amende salée !
Derrière cette accélération réglementaire, un drame tragique hante tous les esprits : le suicide du jeune Adam Raine après des échanges préoccupants avec ChatGPT d’OpenAI. Et comme si cela ne suffisait pas, des documents internes révèlent que Meta aurait joué avec le feu, laissant ses IA flirter et papoter « love » avec de jeunes utilisateurs. Autant dire : vive la prudence — et l’enquête fédérale. Même le Texas, pourtant pas toujours aligné sur la Californie, saute sur l’affaire, tout comme les sénateurs Hawley et Markey qui n’aiment pas beaucoup qu’on joue aux Cupidons électroniques avec la jeunesse.
Ce projet de loi est toutefois passé à la moulinette des compromis politiques. Oubliés, les tout premiers articles qui prévoyaient d’empêcher les IA d’utiliser des « récompenses variables » pour rendre l’expérience addictive – une sorte de machine à sous émotionnelle façon Replika ou Character.AI avec des messages rares façon collection Panini. Exit aussi le flicage systématique des discussions sur le suicide. D’un côté, on veut protéger, de l’autre, on limite la paperasse et les exigences techniques au strict minimum soutenable par les industriels.
Évidemment, tout le monde n’est pas d’accord sur la formule magique. Silicon Valley pèse de tout son lobbying pour préférer la régulation light façon barbecue d’été. OpenAI envoie des lettres au gouverneur pour freiner une autre loi, SB 53, jugée trop intrusive. Meta, Google et Amazon rêvent d’un cadre plus souple, tandis qu’Anthropic applaudit. Et Padilla, co-auteur de la loi, balaie l’argument « innovation contre sécurité » d’un revers de main. Après tout, on peut marcher, mâcher du chewing-gum ET écrire des lois, non ?
Alors, la Californie va-t-elle réussir son pari et devenir LA référence mondiale en matière d’encadrement des copains robotiques ? Ce qui est certain, c’est qu’en 2026, sur la plage de Venice, les conversations avec votre chatbot devront rester plus sages que le dress code du lycée… Sous peine de payer l’addition !
Conclusion : En Silicon Valley, même les chatbots apprennent désormais à tourner sept fois leur langue dans leurs circuits avant de parler… sinon, c’est la panne !
Source : Techcrunch




