a group of construction tools

Credits image : DeepMind / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Snapchat fait-il assez pour protéger les utilisateurs de son chatbot basé sur l’intelligence artificielle ?

Est-ce que Snapchat en fait assez pour protéger ses utilisateurs contre les dangers potentiels des chatbots basés sur l’intelligence artificielle ? L’entreprise a récemment lancé son propre chatbot alimenté par la technologie GPT d’OpenAI, mais il a rapidement été critiqué pour avoir fourni des réponses inappropriées et dangereuses.

Snapchat a déclaré avoir pris des mesures pour corriger le tir en mettant en place de nouveaux outils, tels qu’un filtre d’âge et des informations pour les parents. Le filtre d’âge permet au chatbot de connaître l’âge de l’utilisateur et de fournir des réponses adaptées à son âge. Mais est-ce suffisant pour garantir la sécurité de tous ?

Snapchat met en place de nouveaux outils pour renforcer la sécurité de son chatbot basé sur l’intelligence artificielle.

En plus du filtre d’âge, Snapchat prévoit également de fournir davantage d’informations aux parents sur les interactions de leurs enfants avec le chatbot. Les parents pourront ainsi savoir si leurs adolescents communiquent avec l’IA et à quelle fréquence. Cela peut aider les parents à surveiller l’utilisation de cette technologie par leurs enfants, mais cela soulève aussi des questions sur la vie privée et la surveillance excessive.

Snapchat affirme que seulement 0,01 % des réponses fournies par le chatbot étaient « non conformes » à ses directives, incluant des références à la violence, des termes sexuellement explicites ou des discours haineux. L’entreprise admet toutefois que, dans la plupart des cas, ces réponses inappropriées étaient le résultat du chatbot répétant bêtement ce que les utilisateurs lui disaient. Est-ce que les entreprises technologiques doivent assumer la responsabilité de prévenir de tels comportements, et si oui, comment peuvent-elles le faire de manière efficace ?

D’autres acteurs préoccupés par l’impact de l’IA sur la sécurité et la confidentialité ont également exprimé leurs inquiétudes. Récemment, un groupe d’éthique appelé Center for Artificial Intelligence and Digital Policy a écrit à la Federal Trade Commission, demandant à l’agence d’arrêter le déploiement de la technologie GPT-4 d’OpenAI, l’accusant d’être « biaisée, trompeuse et présentant un risque pour la vie privée et la sécurité publique ».

Il est clair que les entreprises technologiques doivent travailler ensemble pour trouver des solutions pour garantir la sécurité des utilisateurs face à ces nouveaux outils basés sur l’intelligence artificielle. Le déploiement rapide de ces technologies doit être accompagné de mesures de protection suffisantes pour éviter que les chatbots ne deviennent incontrôlables.

Alors, Snapchat et les autres entreprises technologiques sont-elles sur la bonne voie pour assurer la sécurité de leurs utilisateurs tout en offrant ces services innovants ? Seul l’avenir nous le dira.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.