a close up of a red plastic container filled with food

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleSciencesTechnologie
0

Superalignment : Mission Dissolution Impossible

“La technologie est comme une boîte de chocolats, on ne sait jamais sur quoi on va tomber.” – Forrest Gump (ou presque)

Ah, l’été 2023, cette période où OpenAI réunit ses meilleures têtes pour former l’équipe de « Superalignment ». Leur mission ? Maîtriser des systèmes d’IA si puissants qu’ils pourraient, paraît-il, causer la fin de l’humanité. Fast forward une petite année plus tard, et pouf, l’équipe est dissoute.

OpenAI a expliqué à Bloomberg qu’elle “intégrait le groupe plus largement au sein de ses efforts de recherche pour aider l’entreprise à atteindre ses objectifs de sécurité.” Bon. Mais Jan Leike, un des leaders qui a claqué la porte, nous a révélé sur X (anciennement Twitter) que ce n’était pas si simple. Entre ressources manquantes et tensions internes, l’histoire ressemble plus à un soap opera qu’à une réunion studieuse de chercheurs.

Leike a posté vendredi en mode tweetstorm pour dire que l’équipe de Superalignment bataillait pour des ressources essentielles à la recherche. “Construire des machines plus intelligentes que les humains est une entreprise fondamentalement dangereuse”, a écrit Leike. Il semblerait que chez OpenAI, le « safety first » ait été remplacé par le « shiny product first ». La sécurité n’était apparemment plus la priorité du moment. On peut dire que l’ambiance devait être électrique.

Le groupe Superalignment est dissous, laissant derrière lui des tweets en colère et des interrogations sur la priorité à la sécurité.

Ce départ de Leike suit de près celui de Sutskevar, cofondateur et chef scientifique, qui a également pris ses cliques et ses claques peu après avoir tenté de virer le CEO Sam Altman pour « manque de franchise ». Altman, après un court exil de cinq jours, est revenu en force, appuyé par 800 employés menaçant de démissionner s’il n’était pas réintégré. C’est une véritable valse de dirigeants que nous avons là !

Quand OpenAI a annoncé la création de l’équipe Superalignment, elle s’était engagée à utiliser 20% de sa puissance informatique sur les quatre prochaines années pour contrôler ces puissants systèmes d’IA. Mais au fil des mois, les chercheurs semblaient peiner à obtenir les ressources nécessaires, faisant face à des désaccords croissants avec la direction sur les priorités fondamentales de l’entreprise.

Et ce n’est pas fini. Depuis quelques mois, d’autres départs ont suivi, selon le rapport de The Information. Deux chercheurs accusés de fuites d’informations ont été renvoyés en avril. Mais attention, tout n’est pas perdu ! John Schulman, un autre cofondateur, prendra désormais en charge les efforts futurs de sécurité. Jakub Pachocki, qui a dirigé le développement de GPT-4, devient le nouveau chef scientifique.

Heureusement, Superalignment ne tenait pas à lui seul le flambeau de la sécurité. En octobre, une nouvelle équipe « preparedness » a vu le jour pour se pencher sur les risques potentiels catastrophiques des systèmes d’IA, allant des problèmes de cybersécurité aux menaces chimiques, nucléaires et biologiques. La sécurité tient toujours sur le devant de la scène, même si les acteurs changent régulièrement.

Finalement, on pourrait dire que chez OpenAI, pour aligner tout ce beau monde, il vaut mieux avoir des nerfs d’acier… ou en tout cas un bon logiciel de gestion de conflits !

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.