a close up of a bunch of rice sprinkles

Credits image : Google DeepMind / Unsplash

Intelligence Artificielle
0

Peut-on vraiment maîtriser l’intelligence artificielle quand elle accuse à tort ?

Peut-on encore faire confiance à l’intelligence artificielle quand celle-ci fabrique de toutes pièces des accusations graves contre des personnalités publiques ? C’est la question qui secoue une nouvelle fois Google, après que son modèle AI Gemma a été pointé du doigt pour avoir inventé des faits de harcèlement sexuel concernant la sénatrice américaine Marsha Blackburn.

Tout commence lorsque la sénatrice Blackburn interroge Google sur une rumeur la visant, relayée par Gemma, leur IA censée répondre aux questions factuelles. D’où Gemma tient-elle ses informations quand elle évoque, à tort, une plainte pour viol durant une campagne électorale – et se trompe même d’année de campagne ? Pourquoi le chatbot renvoie-t-il vers des liens fantômes et des articles sans aucun rapport avec l’affaire ? Peut-on admettre qu’une IA « hallucine » sur des sujets aussi sensibles, ou cela mérite-t-il une réaction beaucoup plus ferme ?

Le mal semble plus profond. Ce n’est pas la première fois que les modèles d’IA de Google génèrent des réponses diffamatoires. Le militant conservateur Robby Starbuck poursuit déjà la firme pour avoir été décrit à tort comme un « violeur d’enfants » par cette même technologie. Faut-il s’y résoudre : les IA sont-elles intrinsèquement dangereuses si elles ne peuvent contrôler leurs propres « hallucinations » ?

En retirant Gemma d’AI Studio, Google reconnaît-t-il un problème de contrôle ou tente-t-il simplement de calmer la tempête médiatique ?

Du côté de Google, la réponse est prudente : le groupe rappelle sur X, sans citer la sénatrice, que Gemma n’est pas destinée au grand public mais aux développeurs voulant intégrer l’IA dans leurs propres produits. Cela répond-il vraiment à la question de la responsabilité face à la diffusion d’informations fausses et potentiellement destructrices ?

La politisation de l’incident ne fait qu’envenimer le débat. Marsha Blackburn, comme d’autres alliés de Trump, évoque une « censure des IA » défavorable aux conservateurs et dénonce un pattern répété de partialité dans les outils signés Google. Mais le véritable enjeu ne serait-il pas tout simplement la fiabilité de technologies dont tout le monde dépendra bientôt, quelles que soient ses opinions politiques ?

L’affaire met en lumière un dilemme que le secteur tech tarde à trancher : jusqu’où une entreprise comme Google peut-elle s’abriter derrière la complexité technique pour esquiver sa responsabilité morale et juridique ? La firme s’est limitée à retirer Gemma de son AI Studio, laissant toutefois le modèle disponible via API. Suffisant pour rassurer le public, ou simple opération de communication en attendant la prochaine crise semblable ?

Finalement, ce scandale illustre-t-il les limites du contrôle que nous avons réellement sur des intelligences artificielles toujours plus puissantes – et inarrêtables ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.