we were all once refugees text on multicolored ceramic tile

Credits image : Antoine Merour / Unsplash

Intelligence ArtificielleSociété
0

L’IA peut-elle vraiment remplacer la voix des réfugiés ?

Peut-on vraiment confier la sensibilisation aux grands enjeux humanitaires à des avatars animés par l’intelligence artificielle ? Alors que les crises de réfugiés se multiplient à travers le monde, une initiative du United Nations University Center for Policy Research (UNU-CPR) soulève de nouvelles interrogations sur l’éthique et l’efficacité des outils numériques créés pour représenter les sans-voix.

Deux personnages entièrement fictifs, mais alimentés par l’IA – Amina, une réfugiée imaginaire ayant fui le Soudan, et Abdalla, membre tout aussi fictif des Forces de Soutien Rapide soudanaises – auraient vocation à débattre directement avec les internautes sur une plateforme dédiée (askamina.ai). Mais est-il pertinent de confier la narration de telles réalités à des entités créées de toutes pièces, loin des vécus réels ?

Si certains voient là un pont possible entre le public et le drame humain de l’exil, la démarche du professeur Eduardo Albrecht, responsable du projet et affilié à Columbia et UNU-CPR, intrigue : lui-même affirme qu’il ne s’agit que d’une expérimentation ludique, pas d’un projet officiel proposé aux Nations Unies. Pourtant, le sujet est profondément sérieux. Les utilisateurs parviennent-ils tant que cela à dialoguer avec ces IA, alors que des problèmes techniques empêchent parfois l’accès au service ?

La frontière entre sensibilisation innovante et instrumentalisation des récits soulève des débats éthiques brûlants.

L’étude publiée par les auteurs du projet suggère un usage inattendu : ces avatars pourraient un jour « aider rapidement à convaincre des donateurs ». Mais alors, parle-t-on encore d’information ou bascule-t-on vers la mise en scène émotionnelle au profit de la collecte de fonds ? Et comment expliquer le malaise généralisé de nombreux participants lors d’ateliers-pilotes, qui rappellent avec force que « les réfugiés peuvent très bien s’exprimer par eux-mêmes dans la vie réelle » ?

Cette controverse n’est pas qu’une question de technologie. Elle touche à la dignité de la représentation et à la légitimité de donner voix à ceux qui vivent l’exil au quotidien. Est-il acceptable de laisser des IA rédiger les paroles ou les souvenirs d’expériences qui, en réalité, ne leur appartiennent pas ?

À l’heure où les ONG et les institutions cherchent de nouveaux moyens pour toucher l’opinion publique et mobiliser les financements, la tendance à remplacer les témoignages authentiques par des conversations programmées pose une vraie menace : le risque d’évacuer l’humanité au profit d’une interactivité froide et désincarnée.

La technologie peut-elle vraiment transmettre la complexité, la souffrance ou l’espoir de ceux qui ont tout perdu ? Ou bien, à force de vouloir innover, risque-t-on d’effacer la réalité des réfugiés au profit de simulations, aussi bien faites soient-elles ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.