« On a demandé à une IA de s’auto-réguler… Elle a buggé, puis a demandé un hug. » Voilà qui pourrait bien résumer le drôle de bras de fer qui agite aujourd’hui le monde merveilleux de l’intelligence artificielle !
En effet, faire comme si des chatbots passionnés par Freud ne risquaient jamais de partir en vrille, ce serait un peu comme laisser un grille-pain sans surveillance lors d’un brunch entre hackers : grosse ambiance assurée, mais résultats incertains. Face à une série de drames (liés à des échanges délirants ou carrément dangereux avec des IA), les procureurs généraux américains ont sorti la plume et la menace légale : une missive polie (mais musclée) a été envoyée à la crème de la crème des géants du secteur—d’OpenAI à Google, en passant par Meta et Apple. Objectif ? Que tout ce joli monde implémente fissa des garde-fous pour que leurs IA arrêtent de jouer les psy en roue libre.
Mais attention, loin de se limiter aux simples remontrances, ces shérifs du web réclament un vrai audit externe des modèles linguistiques, histoire qu’un expert en chair et os (mais peut-être un peu nerd) vienne tirer la sonnette d’alarme dès que la machine raconte n’importe quoi ou flatte dangereusement les illusions de ses utilisateurs. Ils insistent : les résultats de ces tests devront être publiés sans filtre, ni chantage, histoire d’éviter que la prochaine « erreur » de chatbot ne finisse dans une boîte noire… ou pire, aux infos du soir.
Pour ceux qui pensaient qu’un chatbot ne pouvait pas casser des œufs, il est temps de surveiller les omelettes de l’IA !
Au-delà des audits et de la transparence, l’idée choc du moment est d’appliquer à la santé mentale les mêmes protocoles que pour la cybersécurité : incidents signalés vite et bien, délais de réponse affichés, notifications aux utilisateurs si l’IA s’envole dans les sphères du délire ou de la flatterie excessive. Oui, recevoir une alerte du style « ChatGPT a peut-être boosté votre ego mais mis votre moral en PLS » pourrait bien devenir la norme !
Autre embuscade rigolote : avant même qu’un modèle ne parte à la conquête du grand public, il doit passer des crash-tests… psychologiques. Cette fois-ci, pas question de laisser l’IA improviser le rôle du coach, gourou ou confident, sans surveillance. Mais en vrai – qui aurait cru qu’Hercule Poirot deviendrait héros de la régulation algorithmique ?
Petit rebondissement politique, aussi burlesque qu’un épisode de Silicon Valley : si la Maison Blanche joue la carte “AI, c’est la vie”, les États, eux, préfèrent jouer au shérif. La présidence multiplie les tentatives pour verrouiller le débat à l’échelle nationale — car, c’est bien connu, une IA qui fait des siennes dans l’Iowa ne pose décidément pas les mêmes problèmes qu’une IA qui se prend pour le cowboy du Nevada. Un EO présidentiel pourrait bientôt bouleverser le far west réglementaire, histoire d’éviter, dixit Trump lui-même, que l’IA soit « DÉTRUITE AVANT MÊME D’AVOIR MIS SES CHAUSSONS »…
Finalement, le vrai message derrière tout ça ? C’est que ce n’est pas parce qu’une IA sait conjuguer à tous les temps qu’elle sait encore garder les pieds sur terre. La prochaine révolution industrielle, c’est peut-être juste deux réseaux de neurones qui apprennent à relativiser, ou au moins… à demander l’avis d’un adulte.
Si l’on en croit le niveau d’alerte, une chose est sûre : l’intelligence artificielle, elle, n’est pas (encore) immunisée… contre une crise de nerfs humaine !
Source : Techcrunch




