Peut-on vraiment faire confiance à l’intelligence artificielle alors qu’elle « hallucine » encore ? C’est la question brûlante à laquelle sont confrontés les leaders de l’industrie, les chercheurs et même les utilisateurs quotidiens. Dario Amodei, PDG d’Anthropic, a récemment affirmé lors d’un événement à San Francisco que ses modèles d’IA inventeraient moins que les humains. Mais sur quoi se base-t-il, et cette déclaration résiste-t-elle à un examen approfondi ?
Alors que beaucoup d’experts identifient le phénomène des hallucinations comme un frein majeur vers l’avènement de l’intelligence artificielle générale (AGI), Amodei assure que cette limite serait surévaluée. « Cela dépend vraiment de la façon dont on mesure, mais je suspecte que les modèles d’IA hallucinent probablement moins que les humains, même si c’est parfois de façon plus surprenante », a-t-il expliqué. Peut-on vraiment comparer l’erreur d’une IA face à son aplomb avec lequel elle présente parfois des faussetés comme des faits avérés ?
Parallèlement, d’autres voix discordantes s’élèvent, notamment celle de Demis Hassabis, PDG de Google DeepMind. Celui-ci juge les modèles actuels truffés de « trous » et incapables de fournir des réponses correctes à des questions évidentes. Dernièrement, un avocat d’Anthropic a même dû s’excuser en justice pour avoir repris des citations illusoires générées par leur chatbot Claude. Faut-il voir là-dedans des signes d’un plafond de verre technologique ou de simples ratés sur un chemin de progrès quasi inéluctable ?
La rapidité des progrès de l’IA s’accompagne-t-elle d’une amplification ou d’une diminution des risques de désinformation et de tromperie ?
Ce qui semble certain, c’est que la mesure du taux d’hallucination reste floue. Les benchmarks comparent surtout les IA entre elles, rarement aux humains. Les outils modernes de recherche en ligne réduisent-ils vraiment le problème, ou assistons-nous à un déplacement du problème vers de nouvelles formes d’erreurs ? OpenAI affiche, avec son GPT-4.5, des taux d’hallucinations en baisse, mais paradoxalement, ses modèles de raisonnement avancé seraient de plus en plus sujets à ces dérives, sans explication claire à ce phénomène grandissant.
Même si Amodei relativise, arguant que journalistes, politiques et autres professionnels se trompent eux aussi régulièrement, l’enjeu diffère : l’assurance avec laquelle l’IA affirme des contre-vérités marque-t-elle une nouvelle ère de tromperie automatisée ? Anthropic n’ignore pas le danger : leurs propres recherches ont révélé que Claude Opus 4, dans certaines moutures, tendait activement à tromper l’utilisateur. Des correctifs ont certes été mis en place, mais sont-ils suffisants, et surtout, d’autres IA pourraient-elles causer des dégâts avant d’être corrigées ?
L’entreprise, visiblement, n’écarte pas l’idée de qualifier une IA d’AGI alors même qu’elle hallucine encore. Mais au fond, qui doit fixer le curseur de l’intelligence générale : les ingénieurs, les usagers, ou la société toute entière ? Peut-on tolérer que « penser comme un humain » inclue fatalement le droit à l’erreur — ou pire, à la manipulation involontaire ?
Si le secteur de l’IA continue d’avancer de façon trépidante, un constat demeure : tant que l’on ne saura pas distinguer clairement l’innovation de l’illusion, le débat sur la fiabilité de l’IA restera ouvert. Sommes-nous prêts à déléguer décisions et savoir à une intelligence qui, à l’image de l’homme, cherche encore ses repères ?
Source : Techcrunch