man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

Intelligence ArtificielleTechnologie
0

Les plateformes d’IA sont-elles prêtes pour une diffusion à grande échelle?

Comment se fait-il qu’une entreprise aussi bien financée que Google puisse lancer un produit avec des défauts aussi flagrants? C’est la question que tout le monde se pose après les récents dérapages de l’IA de Google.

Que ce soit l’allégation absurde selon laquelle courir avec des ciseaux pourrait améliorer vos pores, ou encore qu’ajouter de la colle à votre pizza permettrait de faire adhérer le fromage, il semble que l’IA de Google ne manque pas de ratages. Ces erreurs proviennent souvent de sources peu fiables comme des blogs humoristiques ou des commentaires sur Reddit. Mais pourquoi ces dérives se produisent-elles aussi souvent?

Dans le domaine de la cybersécurité, des équipes de « red teaming » sont employées pour tester les systèmes comme le ferait un pirate informatique. Bien que Google ait sans doute mis en place ce type de vérification, le fait que des erreurs aussi grossières passent à travers montre des failles significatives. Ne devrait-on pas s’attendre à plus de rigueur de la part d’une entreprise qui traite des milliards de requêtes par jour?

Les échecs de l’IA de Google sont devenus des mèmes, révélant des failles critiques.

Des erreurs similaires apparaissent également sur d’autres plateformes utilisant l’intelligence artificielle telle que ChatGPT ou encore Grok AI, notamment dans leurs capacités de compréhension du langage ou de la vidéo. Pourtant, les entreprises technologiques minimisent souvent l’impact de ces échecs. Selon Google, ces erreurs sont des « requêtes peu communes et non représentatives de l’expérience de la plupart des utilisateurs ». Faut-il les croire?

Mais quelle est la véritable portée de ces défaillances quand elles concernent des sujets sérieux? Par exemple, une journaliste scientifique a relevé que Google conseillait des mesures dangereuses en cas de morsure de serpent à sonnette, informations en totale contradiction avec celles de la U.S. Forest Service. Ces informations erronées pourraient-elles avoir des conséquences tragiques?

Il est également inquiétant que certaines réponses inexactes soient amplifiées par la viralité des réseaux sociaux, créant une sorte de cercle vicieux. L’exemple où Google assimilait un joueur de la NHL à un chien est un cas de figure où la machine nourrit ses propres erreurs, augmentant la confusion. Les grandes entreprises technologiques peuvent-elles vraiment espérer se fier à des données d’Internet souvent peu fiables pour entraîner leurs modèles d’IA?

À l’heure où les modèles d’IA gagnent en sophistication et en ubiquité, ces incidents soulignent une vérité importante : tout comme en informatique, « garbage in, garbage out ». L’IA ne sera jamais meilleure que les données sur lesquelles elle est entraînée. Ne serait-il pas temps pour ces géants de la tech de repenser leur manière d’aborder le développement de l’intelligence artificielle?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.