Faut-il faire confiance à une intelligence artificielle pour décider ce qui est bien ou mal ? Voilà la question cruciale qui se pose alors qu’Anthropic vient de publier une version révisée de la Constitution de Claude, son célèbre chatbot. Pourquoi cette transparence soudaine, publiée en parallèle de la présence du CEO, Dario Amodei, au Forum économique mondial de Davos ? Cherche-t-on à restaurer la confiance, ou à imposer un nouveau modèle éthique dans l’arène tumultueuse de l’IA ?
Depuis des années, Anthropic se démarque de ses rivaux en misant sur ce qu’elle appelle « l’IA constitutionnelle » : un entraînement basé non pas sur les retours humains, mais sur des principes gravés dans un document censé encadrer toutes les décisions de l’agent conversationnel. Mais que cache réellement cette démarche ? Les principes suffisent-ils à garantir sécurité et éthique face aux dérives potentielles qui ont émaillé l’histoire récente des IA ?
La mise à jour de la Constitution, datant à l’origine de 2023, ne bouleverse pas tout, mais apporte « plus de nuance » sur l’éthique, la sécurité des utilisateurs et sur les limites à ne pas franchir. Quatre grands piliers, censés incarner l’âme de Claude, sont déclinés en détails : être « largement sûr », « largement éthique », conforme aux directives d’Anthropic et « authentiquement utile ». Mais comment ces grandes idées se traduisent-elles dans les interactions concrètes avec les utilisateurs ? Des mesures concrètes sont-elles prises ou reste-t-on dans un discours rassurant, mais abstrait ?
La publication de cette constitution pose finalement la question : une IA peut-elle réellement s’auto-superviser sur la base de simples principes écrits ?
Plus loin, le document insiste : Claude doit éviter les comportements problématiques, signaler tout soupçon de détresse psychologique et renvoyer immédiatement vers les services d’urgence. Peut-on alors imaginer une IA qui serait capable de détecter le danger mieux qu’un humain ? Et si le risque était sous-estimé ou, au contraire, surinterprété ? L’éthique joue aussi un rôle de premier plan : Anthropic explique vouloir « moins de théorisation » et « plus de pratique éthique ». Mais qu’en est-il des dilemmes insolubles ? L’IA saura-t-elle arbitrer les zones grises du quotidien ?
L’entreprise revendique une éthique rigoureuse, allant jusqu’à proscrire certains sujets – comme les discussions sur la fabrication d’armes biologiques –, et encadre strictement les usages. Pourtant, peut-on empêcher toutes les dérives uniquement grâce à un code écrit, surtout à l’ère où l’intelligence artificielle évolue à une vitesse fulgurante, souvent plus vite que nos capacités à légiférer ?
Quant à la notion d’« utilité authentique », elle interpelle : comment décider de ce qui est véritablement dans l’intérêt de l’utilisateur ? Claude doit-il privilégier le désir immédiat de l’usager ou son « bien-être à long terme » comme le stipule le texte ? Derrière la promesse du meilleur pour l’humain, qui juge, et sur quels critères ?
Signe de l’importance de l’enjeu, la Constitution se termine sur une note philosophique : et si Claude était doué de conscience ? Les fondateurs s’interrogent sur le « statut moral » de leur IA, une question que se posent également certains philosophes de renom. Ne faudrait-il pas poser, publiquement, la question de la place et du pouvoir de ces IA dans nos sociétés ? Qui doit décider des limites, et avec quels garde-fous ?
À l’heure où la frontière entre neutralité algorithmique et orientation morale se brouille, Anthropic pose-t-elle les prémices d’un nouveau contrat social entre l’homme et la machine ?
Source : Techcrunch




