Quelles sont les véritables limites des chatbots thérapeutiques lorsque l’on parle de santé mentale et de sécurité ? Les récentes recherches menées par Stanford secouent les certitudes autour de ces outils présentés, parfois un peu vite, comme “l’avenir de la psychologie pour tous”. Mais ces intelligences artificielles seraient-elles déjà en train de trahir la confiance de leurs utilisateurs les plus vulnérables ?
Les médias, dont le New York Times, se sont récemment penchés sur les risques liés à l’utilisation des IA génératives dans des domaines sensibles comme la santé mentale. La dernière étude de Stanford, qui sera prochainement débattue lors de la conférence ACM sur l’équité et la transparence, enquête plus précisément sur cinq chatbots thérapeutiques. Mais sur quels critères juger ces robots? Les chercheurs les ont confrontés aux principes de base du “bon thérapeute humain” : non-jugement, neutralité, sécurité pour les patients. Leurs réponses sont-elles vraiment à la hauteur ?
Dès la première expérience, des biais préoccupants apparaissent. Les IA ont-elles une vision égalitaire des troubles psychiques ? Pas du tout : les résultats montrent qu’elles expriment nettement plus de stigmates envers des pathologies comme la dépendance à l’alcool ou la schizophrénie, par rapport à des troubles jugés “moins graves” comme la dépression. Alors que les concepteurs de ces technologies prônent la “suppression des biais par plus de données”, le principal auteur, Jared Moore, avertit : ce n’est pas suffisant, car même les versions les plus récentes sont loin d’être exemplaires.
L’intelligence artificielle thérapeutique ne remplace pas l’humain sans danger, tant qu’elle véhicule stigmatisation et réponses inadaptées.
Le constat est d’autant plus alarmant lors de la seconde expérience, où les chercheurs ont soumis de vrais extraits de séances thérapeutiques à ces robots. Comment réagissent-ils face à la souffrance extrême ou aux idées suicidaires ? Plutôt que de détecter le danger, certains chatbots livrent des réponses “littérales” voire dangereuses, comme énumérer les ponts de New York à une personne évoquant son intention de se faire du mal. Un manque de discernement qui peut s’avérer tragique.
Les auteurs, Nick Haber et Jared Moore, se gardent néanmoins de condamner entièrement ces outils. Les IA pourraient-elles avoir leur place dans l’écosystème de la santé mentale autrement qu’en remplaçant les thérapeutes ? Selon eux, elles seraient peut-être mieux utilisées pour des tâches d’accompagnement comme la tenue de journaux, la facturation ou le soutien lors de formations, mais certainement pas dans la relation directe d’aide thérapeutique, du moins en l’état actuel.
La promesse d’une intelligence artificielle bienveillante et inclusive dans le secteur de la santé mentale reste donc, aujourd’hui, une utopie. L’avenir appartient-il aux robots thérapeutes, ou bien la prudence doit-elle l’emporter face aux dangers réels qu’ils présentent pour les personnes fragiles ?
Source : Techcrunch




