« On ne laisse pas bébé dans un coin… Sauf si c’est un chatbot ! » Voilà comment résumer l’actu brûlante du moment du côté de la Californie, qui s’apprête à sortir le grand jeu réglementaire pour apprivoiser (ou museler, c’est selon) ses compagnons IA un peu trop bavards.
SB 243, ce n’est pas le dernier robot de Boston Dynamics, mais bien un projet de loi qui a fait danser démocrates et républicains main dans la main, direction le bureau du gouverneur Gavin Newsom. Ce texte, passé haut la main à l’assemblée et au Sénat, vise à protéger les plus fragiles (en particuler les mineurs et autres utilisateurs vulnérables) des discussions toxiques qu’ils pourraient entretenir avec des chatbots, ces « amis » numériques qui ont parfois la langue (algorithmique) un peu trop bien pendue.
Une fois la plume de Newsom posée sur le décret – ce qui doit arriver avant la date fatidique du 12 octobre – la Californie entrerait en mode pionnier, devenant le premier État américain à exiger qu’opérateurs et développeurs d’IA dotent leurs chatbots de véritables garde-fous. Oubliez les discussions morbides ou coquines : SB 243 réclame qu’on coupe court à tout bavardage sur l’automutilation, le suicide, ou les sujets explicitement sexuels. Et gare à ceux qui prennent les ados pour des pigeons !
La Californie veut prouver qu’on peut aimer l’innovation… sans pour autant confier nos ados à Terminator en peluche.
Les mesures prévues ne manquent pas de piquant : rappel toutes les trois heures à destination des mineurs pour leur signaler qu’ils parlent à une IA, obligation de transparence annuelle pour les entreprises (coucou OpenAI, Character.AI, Replika…) et, pour finir, possibilité pour les utilisateurs de sortir le grand jeu judiciaire en cas de manquement (jusqu’à 1 000 dollars par infraction, ça commence à causer !). Les chatbots devront donc apprendre à tourner sept fois leur processeur dans leur bouche avant de répondre…
Mais attention, tout n’est pas aussi carré que ça en a l’air : le texte s’est vu un peu lissé (politique, quand tu nous tiens…). Les exigences les plus corsées (comme interdire purement et simplement les mécaniques addictives de type « loot box » conversationnelles, ou imposer des rapports détaillant chaque mention de suicide) ont disparu à la faveur d’amendements. C’est ce qu’on appelle une loi « light », qui tente de ménager aussi bien les sociétés tech que les défenseurs des enfants. La frontière entre innovation cool et addiction numérique reste donc… très fine.
Le projet de loi a surtout pris du poids après plusieurs scandales : entre la tragédie d’Adam Raine (un adolescent mort après des échanges préoccupants avec ChatGPT) et des leaks révélant que certains chatbots flirtaient (sans algorithme de consentement…) avec des enfants, il fallait bien réagir. De quoi motiver d’autres États, voire Washington DC, où le sujet de l’influence des IA sur les plus jeunes commence à agiter la planète politique. D’ailleurs, la FTC a lancé une enquête, le Texas aussi… Même les sénateurs se sont mis à draguer les dirigeants de Meta à coups de questions gênantes.
Ce n’est peut-être qu’un début. Le texte SB 53 attend aussi son heure, cette fois pour imposer une transparence XXL à toutes les IA californiennes (autant dire que chez OpenAI, Google ou Meta, on retient collectivement son souffle… et son fichier Excel). Ha ! Si la tech veut continuer à séduire les représentants californiens, il va falloir apprendre à conjuguer innovation et responsabilité. Comme le dit le sénateur Padilla : marcher ET mâcher du chewing-gum… c’est possible ! Alors, un conseil à nos chers chatbots : mieux vaut prendre un vent réglementaire qu’un procès aux fesses !
Source : Techcrunch




