a wooden block that says trust, surrounded by blue flowers

Credits image : Alex Shute / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Les stars et l’intelligence artificielle : peut-on vraiment se fier à ChatGPT pour des questions aussi sérieuses que le droit ?

Est-il raisonnable de confier nos examens — ou même des décisions légales — à une intelligence artificielle comme ChatGPT ? Lorsque Kim Kardashian, star iconique et aspirante avocate, avoue publiquement que son recours à ChatGPT pour des conseils de droit l’a induite en erreur et lui a fait échouer des examens, ne devons-nous pas nous interroger sur l’étendue de notre confiance envers ces nouvelles technologies ?

Kardashian raconte, dans une interview pour Vanity Fair, avoir utilisé ChatGPT pour répondre à ses questions de droit, allant même jusqu’à envoyer des captures de documents à l’IA pour obtenir des réponses rapides. Mais que se passe-t-il lorsqu’elle découvre que les informations fournies sont systématiquement fausses ? Peut-on considérer l’intelligence artificielle comme une source fiable alors que son fonctionnement repose sur d’immenses bases de données, sans garantie de véracité ?

La question n’est pas nouvelle : si des célébrités se font piéger, quid des professionnels ? Plusieurs avocats ont été sanctionnés pour avoir intégré des références inventées par ChatGPT dans leurs dossiers, révélant ainsi le danger de « l’hallucination » de ces modèles linguistiques. Pourquoi l’outil, dont les réponses paraissent crédibles, se trompe-t-il aussi souvent ? Faut-il rappeler que ChatGPT, loin de comprendre vraiment le contenu, prédit simplement ce qui « devrait » venir ensuite dans une phrase ?

Si même Kim Kardashian est induite en erreur, qui peut vraiment se dire à l’abri des fausses promesses de l’intelligence artificielle ?

Ce qui frappe dans le témoignage de Kim Kardashian, c’est son réflexe d’essayer d’émouvoir ChatGPT, comme si l’IA avait une conscience. « Tu vas me faire échouer, comment te sens-tu par rapport à ça ? » s’est-elle surprise à demander. Mais peut-on vraiment espérer partager un ressenti avec une machine lorsqu’on sait que celle-ci ne possède aucune émotion, ni même la capacité de comprendre la notion d’échec ? N’est-ce pas là le début d’une nouvelle forme de solitude numérique, celle où l’on attend des réactions humaines d’entités dépourvues de toute humanité ?

Mais l’impact psychologique ne s’arrête pas là. Face à l’arrogance ou à la fausseté de l’IA, Kardashian partage régulièrement ses conversations déroutantes avec ses amis, fascinée par la façon dont ChatGPT lui répond. Cela révèle un autre phénomène : l’idée de s’indigner du « comportement » d’une machine, de se regrouper contre ce qui n’est que le reflet amplifié de nos propres attentes et de nos frustrations. Devons-nous craindre de tomber dans le piège de l’anthropomorphisme numérique, oubliant involontairement la nature fondamentalement inhumaine de ces outils ?

Dans une société qui valorise la rapidité et la commodité, sommes-nous déjà trop enclins à déléguer notre pensée critique à des systèmes automatiques ? La mésaventure de Kim Kardashian soulève un point capital : la nécessité, pour les utilisateurs et futurs professionnels du droit, de conserver leur vigilance et leur esprit d’analyse, même face à la tentation du tout-technologique. Qui, à l’avenir, portera la responsabilité des erreurs commises par ignorance ou par excès de confiance dans l’intelligence artificielle ?

Alors, à l’ère de l’IA accessible à tous, ne serait-il pas judicieux de se demander : entre progrès fascinant et danger rampant, jusqu’où sommes-nous prêts à aller avec ces technologies dans nos sphères personnelles et professionnelles ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.