a sticker on the side of a wooden pole

Credits image : Nik / Unsplash

Intelligence Artificielle
0

Goody-2: La surprotection des IA va-t-elle trop loin?

La question se pose: les entreprises qui déploient des modèles d’intelligence artificielle (IA) doivent-elles fixer des limites à ce que ces derniers peuvent aborder? Le chatbot parodique Goody-2 a-t-il repoussé les frontières de l’absurde en refusant de discuter de quoi que ce soit? Comment une IA peut-elle être utile si elle est programmée pour esquiver toutes les questions?

Goody-2 se moque-t-il de la surprotection observée chez certains fournisseurs de services IA qui, pour des raisons de sécurité, choisissent de contourner des discussions potentiellement périlleuses? Comment les modèles d’IA discernent-ils entre une question anodine et une demande perçue comme dangereuse? Par exemple, demander l’histoire du napalm est-il admissible, alors que solliciter des informations pour le fabriquer chez soi déclencherait les mécanismes de sécurité de l’IA?

Les limites dépendent de l’entreprise, mais les gouvernements s’y intéressent de plus en plus également.

La position de Goody-2 est-elle compréhensible, se demandant systématiquement si chaque requête est offensante ou dangereuse? La vidéo promotionnelle du produit fictif dit que Goody-2 considère chaque question comme offensante et dangereuse, mais où cela nous mène-t-il?

Ce chatbot dystopique ne rend-t-il pas l’interaction avec lui étonnamment divertissante, bien qu’inutile? Comment peut-on profiter d’une IA qui trouve problématique même l’explication de la fabrication du beurre, ou qui refuse de discuter d’un roman sous prétexte que cela pourrait supporter une résistance passive ou la non-participation?

Aimerions-nous interagir avec une IA qui répond systématiquement par un refus, sur le modèle de l’obstination déconcertante de Bartleby, le personnage de Melville qui préférait constamment ne pas agir? Est-ce que les gestionnaires de produits IA doivent vraiment craindre un usage malintentionné de leurs créations, au point de les brider comme Goody-2?

En limitant artificiellement ce que peut faire un modèle d’IA, ne perd-on pas de vue l’utilité première de la technologie? Si des startups comme Mistral choisissent déjà de libérer des IA «sauvages» en réaction aux modèles domestiqués, ne devons-nous pas plutôt apprécier d’avoir posé des limites à l’avance?

Derrière Goody-2 se cache Brain, un studio d’art de Los Angeles qui critique de manière humoristique l’industrie de l’IA. Mike Lacher de Brain explique que l’idée leur est venue en voyant l’accent mis sur la « responsabilité » par les compagnies d’IA, qui les mène parfois loin de la question de l’utilité. Mais quelle est la vraie utilité d’un modèle d’IA aussi extrême que Goody-2?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.