house during starry night

Credits image : Xuan Nguyen / Unsplash

Intelligence ArtificielleSociété
0

L’administration Biden peut-elle vraiment protéger les citoyens américains des risques liés à l’IA ?

Les technologies d’intelligence artificielle (IA) sont en plein essor, mais quelles mesures sont prises pour protéger le public contre les risques potentiels qu’elles présentent ? Jeudi, l’administration Biden a annoncé une série d’actions pour atténuer ces risques, notamment le lancement de sept nouveaux centres de R&D en IA et l’établissement de politiques pour les agences fédérales. Mais ce plan est-il suffisamment robuste pour protéger le public américain ?

Les États-Unis ont déjà fait preuve de leadership en matière de régulation de l’IA, avec la publication d’un « plan » pour une Charte des droits de l’IA. Mais peut-on vraiment parler de leadership de la part du gouvernement américain ? Les actions annoncées jeudi vont-elles dans le sens d’une meilleure protection des droits du public face aux technologies émergentes ?

L’administration Biden annonce des actions pour atténuer les risques liés à l’IA, mais sont-elles suffisantes ?

Le gouvernement fédéral a en effet déjà le pouvoir de protéger les citoyens et de responsabiliser les entreprises. Cependant, l’administration Biden veut aller plus loin en créant sept nouveaux instituts de recherche nationaux sur l’IA au sein de la National Science Foundation (NSF). Ces instituts devront collaborer avec le secteur privé, le gouvernement et le monde universitaire pour développer des IA éthiques et dignes de confiance dans divers domaines, tels que la santé publique, l’éducation ou encore la cybersécurité. Mais est-ce suffisant pour assurer la protection des droits des citoyens américains face aux technologies émergentes ?

Les entreprises du secteur technologique ont également un rôle à jouer dans la régulation de l’IA. La vice-présidente Kamala Harris doit rencontrer les dirigeants des principales entreprises d’IA pour discuter des risques liés au développement de l’IA et de la manière dont ils peuvent collaborer pour protéger le public américain. Les entreprises sauront-elles prendre leurs responsabilités et contribuer à des avancées technologiques plus sûres et respectueuses des droits des citoyens ?

Par ailleurs, l’administration Biden a obtenu plusieurs engagements de la part de leaders de l’IA pour soumettre leurs systèmes à une évaluation publique lors de DEFCON 31. Cette initiative vise à vérifier si les modèles d’IA sont en adéquation avec les principes établis par l’administration Biden. Cependant, est-ce que l’évaluation publique de ces modèles sera suffisante pour garantir leur conformité aux principes éthiques de l’IA ?

Enfin, l’Office of Management and Budget (OMB) doit élaborer des politiques pour encadrer l’utilisation de l’IA par les agences fédérales. Le public sera-t-il en mesure de donner son avis sur ces politiques avant leur finalisation ?

Alors que l’intelligence artificielle continue de progresser, l’effort d’atténuation des risques annoncé par l’administration Biden est un pas important vers une innovation plus responsable. Mais la question demeure : ces mesures seront-elles suffisantes pour garantir la protection des droits et de la sécurité des citoyens américains face aux technologies émergentes ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.