text

Credits image : Tim Mossholder / Unsplash

Intelligence ArtificielleRéseaux sociauxTechnologie
0

Régulations IA : New York met les bots à la barre

« Si l’intelligence artificielle est censée être plus intelligente que nous, il serait prudent de lui rappeler où se trouvent les sorties de secours. » C’est avec cet esprit que les législateurs de l’État de New York viennent de passer un nouveau projet de loi, la RAISE Act, qui vise à installer des garde-fous autour des IA les plus puissantes de notre ère, those wild AIs from OpenAI, Google, Anthropic, et consorts, susceptibles de causer très gros bobo ou quelques milliards de dollars de dégâts si elles se déchaînaient (ou buggaient, soyons lucides).

La RAISE Act, c’est un peu le nouvel album préféré des défenseurs de la sécurité IA, ceux-là mêmes qui avaient été mis en sourdine par une Silicon Valley enthousiaste à l’idée d’accélérer, quitte à freiner plus tard. Parmi les grands fans : Geoffrey Hinton et Yoshua Bengio, des stars du machine learning. Leur refrain ? Transparence obligatoire et rapports d’incident détaillés dès qu’on franchit les seuils du « trop gros pour planter sans conséquences ». Si la loi est signée, New York deviendra l’État pionnier de la transparence IA, et une partie de ping-pong législatif pourrait bien commencer avec les autres puissances tech mondiales.

Mais attention, la RAISE Act a soigneusement évité de tomber dans le piège qui a coûté la vie à la fameuse SB 1047 de Californie. Cette fois-ci, pas question de refroidir les ardeurs des startups ni de prétendre qu’une IA doit être livrée avec bouton « arrêt d’urgence » comme sur les vieux mixeurs ! Le sénateur new-yorkais Gounardes a tenté de trouver le point d’équilibre : protéger sans empêcher d’innover. Un comble pour une loi qui cible les géants, et non les étudiants bricoleurs, grâce à une définition très costaud des ressources nécessaires (100 millions de dollars en calcul, autant dire plus de RAM que dans votre salon).

Pour réguler l’IA, mieux vaut anticiper la tempête que s’abriter sous un parapluie troué.

Évidemment, dans la vallée du silicone, la sonnerie d’alarme a retenti : “Encore une loi débile !” a tweeté un partenaire d’Andreessen Horowitz, pendant que chez Anthropic, on fait la moue devant une réglementation jugée « trop large », craignant pour les petits poussins de la tech. Pourtant, Gounardes assure que tout a été calibré pour ne pas allumer la cheminée sous les pieds des petites entreprises. À croire que tout le monde n’a pas lu la notice, ou que certains préfèrent la poussière sous le tapis !

Le débat fait rage sur les réseaux sociaux (et autour des machines à café). Les opposants prédisent une évasion des IA les plus avancées hors de l’État de New York, à la façon d’une grève des robots. Mais avec le PIB new-yorkais qui pèse lourd, difficile d’imaginer OpenAI ou Google plier bagage sans réfléchir trois fois (et consulter cinq avocats). Côté législateurs, on insiste : la charge réglementaire est légère et personne n’a intérêt à boycotter Wall Street. Mais sait-on jamais, parfois, c’est l’ego qui clique sur “Escape”.

Finalement, il ne reste qu’une inconnue dans l’équation : la signature de la gouverneure Kathy Hochul. Trois choix s’offrent à elle : valider, corriger ou jeter le texte à la corbeille. Quoi qu’il arrive, l’épisode prouve une chose : l’ère des IA sans surveillance touche à sa fin, l’humain redevient le maître des lois… du moins jusqu’à la prochaine mise à jour.

Et souvenez-vous : vouloir réguler l’IA, c’est un peu comme vouloir dresser un chaton : c’est nécessaire, mais personne n’a encore trouvé la bonne technique pour éviter les griffures !

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.