Person sitting on a table clicking on their Surface laptop

Credits image : Microsoft Edge / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

La nouvelle politique de Microsoft : une avancée ou un simple coup de théâtre ?

Quelles sont les implications du changement de politique de Microsoft interdisant aux services de police américains d’utiliser l’IA générative pour la reconnaissance faciale via le service Azure OpenAI ?

L’ajout de mercredi aux conditions d’utilisation du service Azure OpenAI interdit les intégrations permettant une utilisation « par ou pour » les départements de police pour la reconnaissance faciale aux États-Unis, y compris les intégrations avec les modèles d’analyse de texte et de parole d’OpenAI. Mais, quelles sont les limites exactes de ces interdictions et leur portée véritable ?

Une autre nouveauté concerne « toute application par les forces de l’ordre à l’échelle globale », interdisant spécifiquement l’utilisation de « technologies de reconnaissance faciale en temps réel » sur des caméras mobiles, telles que les caméras corporelles et les dashcams, pour tenter d’identifier une personne dans des environnements « non contrôlés, en extérieur ». Mais cette mesure est-elle suffisante pour adresser les problèmes éthiques soulevés ?

L’application des nouvelles règles laisse une marge de manœuvre à Microsoft, précisant que l’interdiction complète de l’utilisation du service Azure OpenAI ne concerne que les États-Unis.

Ces changements de termes interviennent une semaine après qu’Axon ait annoncé un nouveau produit exploitant le modèle de texte génératif GPT-4 d’OpenAI pour résumer les audios des caméras corporelles. Les critiques ont rapidement souligné les dangers potentiels, tels que les « hallucinations » (les meilleurs modèles d’IA génératifs d’aujourd’hui inventent des faits) et les « biais raciaux » issus des données d’entraînement. Cela souligne-t-il une prise de conscience tardive des risques liés à l’IA ?

Bien que le flou demeure quant à l’utilisation de GPT-4 via le service Azure OpenAI par Axon, et si la politique mise à jour répond à ce lancement de produit, la question demeure : cette initiative est-elle une réponse directe aux préoccupations soulevées ou une mesure préventive face à l’évolution rapide de la technologie ?

Le nouvel ensemble de conditions crée une distinction entre les utilisations interdites pour la police américaine et les usages restants autorisés, particulièrement en dehors des États-Unis et pour la reconnaissance faciale menée avec des caméras stationnaires dans des environnements contrôlés. Mais, cela contraste-t-il avec les engagements récents de Microsoft et OpenAI dans les domaines de l’application de la loi et des contrats de défense liés à l’IA ?

Alors que les collaborations entre OpenAI, Microsoft et le département de la Défense des États-Unis (DoD) pour développer des capacités de cybersécurité se confirment, la ligne entre les applications militaires et civiles de l’IA continue de s’estomper. Avec Azure OpenAI Service désormais disponible au sein du produit Azure Government, offrant des fonctionnalités supplémentaires de conformité et de gestion destinées aux agences gouvernementales, incluant l’application de la loi, comment Microsoft navigue-t-elle entre innovation technique et impératifs éthiques ?

Update: Après publication, Microsoft a précisé que son changement initial des conditions d’utilisation contenait une erreur, et que l’interdiction ne s’applique qu’à la reconnaissance faciale aux États-Unis. Il ne s’agit donc pas d’une interdiction générale d’utilisation du service par les départements de police.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.