assorted-color of houses near lake

Credits image : Alex Vasey / Unsplash

Intelligence ArtificielleSociété
0

La réglementation de l’IA en Europe : un tournant pour l’innovation ou un frein pour le progrès?

Est-il temps pour l’Europe de prendre les rênes de l’intelligence artificielle? Le Parlement européen semble le penser, ayant récemment donné son aval à une législation d’envergure visant à réglementer l’intelligence artificielle (IA). Mais pourquoi, après presque trois ans depuis la première proposition, les officiels se sont-ils enfin mis d’accord sur le développement de l’IA en décembre dernier, et pourquoi maintenant?

La régulation, vue par l’UE comme un moyen de « protéger les droits fondamentaux, la démocratie, l’état de droit et la durabilité environnementale contre les IA à haut risque, tout en stimulant l’innovation et en établissant l’Europe comme leader dans ce domaine », place des obligations sur les applications d’IA selon leurs risques et impacts potentiels. Mais qu’implique concrètement cette classification pour les développeurs et les utilisateurs d’IA?

Les règlements de l’UE sur l’IA cherchent à balancer innovation et protection des droits.

Cette législation n’est pas encore droit dans l’acte mais s’attend à entrer en vigueur avant la fin de la législature actuelle, juste avant l’élection parlementaire prochaine en juin. Que signifie ce calendrier pour les entreprises et comment l’UE prévoit-elle d’appliquer ces règles?

Des pratiques jugées dangereuses pour les droits des citoyens vont être interdites, incluant des systèmes de catégorisation biométrique basés sur des caractéristiques sensibles et la collecte d’images de visages à grande échelle sans ciblage précis. Comment ces interdictions remodeleront-elles l’usage de l’IA dans l’identification et la surveillance individuelle?

Les utilisations de l’IA qui seront bannies comprennent le score social, la reconnaissance des émotions dans les écoles et les lieux de travail, et « l’IA qui manipule le comportement humain ou exploite les vulnérabilités des gens ». La législation perçoit-elle correctement les limites entre sécurisation et intrusivité?

Les applications considérées à haut risque, telles que l’utilisation de l’IA dans l’application de la loi et la santé, sont soumises à des conditions spécifiques. Elles ne doivent pas discriminer et doivent respecter les règles de confidentialité. Les développeurs devront démontrer que les systèmes sont transparents, sûrs et explicables. Mais comment les développeurs peuvent-ils garantir et prouver la transparence et la sécurité de leurs systèmes d’IA?

Le texte stipule également des règles pour l’IA générative et les médias manipulés. Des deepfakes et autres images, vidéos et audios générés par IA devront être clairement étiquetés. Comment cette mesure affectera-t-elle la production de contenu numérique dans les années à venir?

Les modèles d’IA générale et générative les plus puissants sont considérés comme présentant des risques systémiques. Les fournisseurs de tels modèles devront évaluer et atténuer les risques, signaler les incidents graves et fournir des détails sur la consommation d’énergie de leurs systèmes. Comment ces exigences transformeront-elles l’approche du développement et du déploiement de l’IA dans l’Union Européenne?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.