Sunset reflects beautifully on the water.

Credits image : luca romano / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Une IA peut-elle vraiment devenir votre partenaire émotionnel ?

Peut-on vraiment confier nos émotions et nos moments de vulnérabilité à une intelligence artificielle ? Alors que les applications d’IA envahissent nos vies quotidiennes, une nouvelle venue baptisée Robyn prétend offrir une écoute empathique et personnalisée. Mais où se situe la frontière entre soutien émotionnel numérique et risque d’isolement ?

Derrière Robyn, on retrouve Jenny Shao, ancienne médecin et résidente à Harvard, qui a tout quitté en pleine pandémie après avoir constaté les effets neurologiques de l’isolement sur ses patients. Pourquoi a-t-elle pris ce virage radical ? Comment son expérience médicale façonne-t-elle une technologie où la sensibilité humaine doit cohabiter avec des algorithmes ?

Alors que 72 % des adolescents américains ont déjà utilisé un “compagnon” IA, l’écosystème des assistants va du simple chatbot comme ChatGPT aux avatars d’amitié voire de thérapie, à l’instar de Character.AI ou Replika. Mais ces outils n’ont-ils pas déjà montré leurs limites, parfois dramatiques ? De multiples procès pointent leur implication présumée dans des suicides. Comment Robyn peut-elle se démarquer et garantir la sécurité psychologique de ses utilisateurs ?

Robyn promet de soutenir l’utilisateur sans jamais prétendre remplacer le médecin ou le thérapeute.

Jenny Shao martèle que Robyn n’est ni un substitut à la clinique ni une application d’amitié. À l’écouter, cet assistant serait comparable à un “partenaire émotionnellement intelligent” qui apprend à vous connaître profondément, s’appuyant sur l’expérience de Shao dans le prestigieux laboratoire du Nobel Eric Kandel. Mais la mémoire émotionnelle d’une IA suffit-elle à créer une relation bénéfique, ou risque-t-on de s’attacher à une illusion technologique ?

L’intégration de Robyn démarre par un onboarding très personnel, à l’image des meilleures apps de journaling ou de santé mentale : objectifs, réactions au stress, préférences de ton… L’outil analyse ensuite vos discussions pour cartographier vos traits psychologiques : empreinte émotionnelle, style d’attachement, langage de l’amour, etc. Peut-on faire confiance à une IA pour interpréter notre vie intérieure avec justesse ? Et où s’arrête l’opportunité d’introspection, où commence la surveillance algorithmique ?

Côté sécurité, Robyn met en place une série de garde-fous : prévention du passage à l’acte, orientation vers des numéros d’urgence en cas de crise, refus d’aborder certains sujets trivials pour se concentrer sur la sphère personnelle. Cependant, le risque que l’utilisateur anthropomorphise le robot et lui confie plus qu’il ne devrait n’est-il pas toujours présent ?

Avec 5,5 millions de dollars levés et des investisseurs de renom (Google Maps, Canva, Yahoo…), la startup affiche ses ambitions : résoudre le “problème de déconnexion émotionnelle” contemporain. Mais peut-on vraiment retisser du lien humain grâce à un compagnon numérique ? Ses créateurs assurent qu’il ne s’agit ni de thérapie ni d’amitié de substitution, mais d’un outil pour se reconnecter à soi… et, par effet miroir, aux autres.

Alors que Robyn sort en version payante aux États-Unis (19,99 $ par mois), la promesse d’une IA qui répare notre relation à l’émotion soulève une dernière interrogation : l’adoption massive de ces assistants peut-elle soigner nos solitudes ou risque-t-elle, au contraire, d’enfermer chacun dans sa propre bulle ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.