person with blue and red manicure

Credits image : Alexander Grey / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Google et le Malaise Généré par IA : Quand l’Intelligence n’est pas si Artificielle

« Il semble que tout le monde parle d’intelligence artificielle ces jours-ci, mais personne ne comprend vraiment ce qu’elle mange en hiver! »

La semaine dernière, l’IA était encore une fois sur toutes les lèvres, notamment celles de Google, qui a mis en pause la capacité de son chatbot Gemini de générer des images de personnes. Pourquoi donc? Pour cause d’anachronismes historiques saugrenus et d’un regard un brin trop « arc-en-ciel » sur des légionnaires romains. Non, vous n’avez pas raté un épisode de « Romains vs Martiens », c’est juste Gemini qui se perd en chemin.

Il s’avère que Google, ainsi que d’autres fournisseurs d’IA tels qu’OpenAI, ont intégré quelques solutions de fortune pour essayer de « corriger » les biais de leurs modèles. La tentative de ne pas générer d’images stéréotypées semble louable mais s’est transformée en refus catégorique face à certains prompts spécifiques, ce qui n’a pas manqué de soulever quelques sourcils.

Les tentatives de Google de contrôler l’IA en évitant les stéréotypes se sont révélées plus comiques qu’efficaces.

Ce bon vieux rasoir d’Occam nous suggère que Google, brûlé par ses erreurs passées (qui se souvient de la classification des hommes noirs en gorilles?), est déterminé à ne pas répéter l’histoire. Il s’efforce donc de peindre un monde de diversité et d’inclusion… quitte à frôler le ridicule.

Et si le livre à succès « White Fragility » souligne combien l’effacement de la race peut perpétuer les déséquilibres de pouvoir, Google, avec Gemini, semble avoir choisi une stratégie de l’autruche, tentant de dissimuler les biais plutôt que de les affronter honnêtement.

Les données que nous utilisons pour entraîner ces Génies de l’image révèlent que oui, il y a plus de Blancs que de Noirs dans ces datasets. Et oui, ces images renforcent parfois des stéréotypes négatifs. Chacun y va de son interprétation, sexualisant, autorisant, et mondialisant suivant son propre biais.

Mais admettons-le, AI nous met devant un miroir tendu vers nos propres imperfections. Peut-être est-il temps d’affronter ces biais de front, en toute humilité, au lieu d’essayer des solutions qui semblent sorties d’un sketch comique.

Cette affaire de diversité dans les images générées par l’IA nous rappelle qu’il y a encore du chemin à parcourir. Mais une chose est sûre, si Google cherche à éviter les faux pas, peut-être devrait-il songer à une IA qui comprend non seulement nos mots, mais aussi le contexte historique et social dans lequel ils s’inscrivent. Voilà qui serait vraiment révolutionnaire!

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.