Est-il raisonnable de confier nos examens — ou même des décisions légales — à une intelligence artificielle comme ChatGPT ? Lorsque Kim Kardashian, star iconique et aspirante avocate, avoue publiquement que son recours à ChatGPT pour des conseils de droit l’a induite en erreur et lui a fait échouer des examens, ne devons-nous pas nous interroger sur l’étendue de notre confiance envers ces nouvelles technologies ?
Kardashian raconte, dans une interview pour Vanity Fair, avoir utilisé ChatGPT pour répondre à ses questions de droit, allant même jusqu’à envoyer des captures de documents à l’IA pour obtenir des réponses rapides. Mais que se passe-t-il lorsqu’elle découvre que les informations fournies sont systématiquement fausses ? Peut-on considérer l’intelligence artificielle comme une source fiable alors que son fonctionnement repose sur d’immenses bases de données, sans garantie de véracité ?
La question n’est pas nouvelle : si des célébrités se font piéger, quid des professionnels ? Plusieurs avocats ont été sanctionnés pour avoir intégré des références inventées par ChatGPT dans leurs dossiers, révélant ainsi le danger de « l’hallucination » de ces modèles linguistiques. Pourquoi l’outil, dont les réponses paraissent crédibles, se trompe-t-il aussi souvent ? Faut-il rappeler que ChatGPT, loin de comprendre vraiment le contenu, prédit simplement ce qui « devrait » venir ensuite dans une phrase ?
Si même Kim Kardashian est induite en erreur, qui peut vraiment se dire à l’abri des fausses promesses de l’intelligence artificielle ?
Ce qui frappe dans le témoignage de Kim Kardashian, c’est son réflexe d’essayer d’émouvoir ChatGPT, comme si l’IA avait une conscience. « Tu vas me faire échouer, comment te sens-tu par rapport à ça ? » s’est-elle surprise à demander. Mais peut-on vraiment espérer partager un ressenti avec une machine lorsqu’on sait que celle-ci ne possède aucune émotion, ni même la capacité de comprendre la notion d’échec ? N’est-ce pas là le début d’une nouvelle forme de solitude numérique, celle où l’on attend des réactions humaines d’entités dépourvues de toute humanité ?
Mais l’impact psychologique ne s’arrête pas là. Face à l’arrogance ou à la fausseté de l’IA, Kardashian partage régulièrement ses conversations déroutantes avec ses amis, fascinée par la façon dont ChatGPT lui répond. Cela révèle un autre phénomène : l’idée de s’indigner du « comportement » d’une machine, de se regrouper contre ce qui n’est que le reflet amplifié de nos propres attentes et de nos frustrations. Devons-nous craindre de tomber dans le piège de l’anthropomorphisme numérique, oubliant involontairement la nature fondamentalement inhumaine de ces outils ?
Dans une société qui valorise la rapidité et la commodité, sommes-nous déjà trop enclins à déléguer notre pensée critique à des systèmes automatiques ? La mésaventure de Kim Kardashian soulève un point capital : la nécessité, pour les utilisateurs et futurs professionnels du droit, de conserver leur vigilance et leur esprit d’analyse, même face à la tentation du tout-technologique. Qui, à l’avenir, portera la responsabilité des erreurs commises par ignorance ou par excès de confiance dans l’intelligence artificielle ?
Alors, à l’ère de l’IA accessible à tous, ne serait-il pas judicieux de se demander : entre progrès fascinant et danger rampant, jusqu’où sommes-nous prêts à aller avec ces technologies dans nos sphères personnelles et professionnelles ?
Source : Techcrunch



