house during starry night

Credits image : Xuan Nguyen / Unsplash

Intelligence Artificielle
0

Signaler sans se faire désaligner

« L’intelligence artificielle est peut-être intelligente, mais elle a encore beaucoup à apprendre sur l’éthique humaine. »

Dans une déclaration qui pourrait faire trembler des CPU partout dans le monde, un groupe de 13 anciens et actuels employés de géants de l’IA (OpenAI, Google DeepMind et Anthropic) a signé une lettre ouverte. Ils demandent plus de transparence et de protections pour ceux qui osent lever le voile sur les risques potentiels de l’IA. Car, avouons-le, se heurter aux géants de la tech peut être aussi risqué qu’un duel contre un robot mal programmé!

La publication de cette lettre survient peu après une investigation explosive de Vox, révélant qu’OpenAI exigerait que ses employés partants signent des clauses de non-dénigrement corsées sous peine de perdre leurs parts d’actionnariat. Un coup qui ferait rougir même le PDG d’OpenAI, Sam Altman, qui a depuis affirmé avoir supprimé cette clause des documents de sortie récents. Alors, info ou intox? À vous de juger!

Ceci est particulièrement inquiétant, car les auteurs de la lettre — appuyés par des experts de renom tels que Geoffrey Hinton, Yoshua Bengio et Stuart Russell — mettent en garde contre la course débridée vers des systèmes d’IA surpuissants. Ces technologies non surveillées pourraient propager la désinformation, creuser les inégalités, et même échapper au contrôle humain, potentiellement conduisant à l’extinction de notre espèce. Pas de pression, bien sûr.

Risquer l’extinction pour quelques likes et retweets? Vraiment?

Daniel Kokotajlo, ancien employé d’OpenAI, ne mâche pas ses mots : « Nous comprenons très peu comment ces systèmes fonctionnent et s’ils resteront alignés sur les intérêts humains devenant plus intelligents et surpassant potentiellement l’intelligence humaine. » Face à cet avenir incertain, plusieurs solutions sont proposées : protéger les employés qui soulèvent des questions de sécurité, mettre en place un système anonyme pour alerter le public, encourager une culture de la critique ouverte, et abolir les clauses de non-déclaration qui musellent les employés. Une idée révolutionnaire? Disons plutôt une nécessité absolue.

La réponse d’OpenAI ne s’est pas fait attendre, affirmant leur engagement pour des débats rigoureux et une collaboration continue avec les gouvernements et les sociétés civiles. « Nous sommes fiers de notre dossier fournissant les systèmes d’IA les plus capables et les plus sécurisés », a déclaré un porte-parole d’OpenAI. Bravo, mais cela suffira-t-il à apaiser les craintes de tous?

En attendant, Google et Anthropic préfèrent jouer la carte du silence, un choix qui semble être plus facilement maîtrisable pour eux que la programmation d’une super-intelligence bienveillante. Préparez-vous à l’ère de l’IA, où les batailles éthiques se jouent autant dans les salles de réunion que dans les lignes de code!

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.