A 3D model of a military vehicle on a black background

Credits image : Sergey Koznov / Unsplash

Intelligence ArtificielleSociété
0

La technologie doit-elle décider des lois à la place des humains ?

Peut-on vraiment confier la simplification de l’administration fédérale américaine à une intelligence artificielle ? La nouvelle initiative du Department of Government Efficiency (DOGE) soulève de nombreuses interrogations parmi les experts et les citoyens. Quels sont les risques d’une telle délégation à la technologie ? Et que cherche-t-on réellement à accomplir ?

Selon le Washington Post, le gouvernement souhaite réduire de moitié ses réglementations grâce à un outil d’intelligence artificielle baptisé DOGE AI Deregulation Decision Tool. Cette machine serait capable de passer au crible environ 200 000 règles fédérales pour isoler celles qui ne sont plus nécessaires, avec pour objectif d’en éliminer 50% d’ici la première année du retour de Donald Trump à la présidence. Mais comment s’assurer que l’algorithme distinguerait judicieusement l’utile du superflu ?

Dévoilée dans une présentation PowerPoint du 1er juillet, la stratégie du DOGE a déjà commencé à être appliquée : le tool aurait passé au peigne fin les réglementations du Department of Housing and Urban Development et serait à l’origine de « 100 % des dérégulations » au sein du Consumer Financial Protection Bureau. Ce chiffre interpelle-t-il sur la robustesse, ou sur l’empressement de la démarche ?

Une IA peut-elle vraiment mieux juger de l’intérêt public que le débat démocratique et l’expérience humaine ?

Malgré tout, la Maison-Blanche tempère l’enthousiasme : « Aucun plan unique n’a été validé ou lancé », assure un porte-parole, tout en saluant l’équipe DOGE comme « les meilleurs dans le domaine ». Faux pas prudent ou stratégie de communication ? Le mystère reste entier. Le passé du projet incite à la prudence : un précédent outil d’IA développé par DOGE et piloté de près par Elon Musk avait fait parler de lui pour ses erreurs de calcul, notamment sa tendance à « halluciner » la taille des contrats du ministère des Anciens combattants.

Cette ambition algorithmique de couper dans la paperasse s’inscrit pourtant dans une tendance lourde. Face à la complexité de la réglementation fédérale, faut-il accélérer le recours à des outils automatisés, malgré leur opaque fonctionnement et leur propension connue à l’erreur ? N’est-ce pas là l’amorce d’un débat de société sur la gouvernance par les machines ?

La saga du DOGE interroge bien au-delà de la simplification administrative : jusqu’où peut-on pousser la déshumanisation des décisions politiques ? Les promesses d’efficacité cachent-elles le risque d’abandonner notre sens critique au profit d’algorithmes dont les biais, souvent invisibles, pourraient redessiner en silence le paysage de la législation américaine ?

L’IA, nouveau juge suprême de la paperasserie fédérale ? Si la technologie promet des lendemains administratifs épurés, ne court-on pas le risque d’oublier la complexité profonde de la délibération démocratique ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.