a room with many machines

Credits image : ZHENYU LUO / Unsplash

Intelligence ArtificielleRéseaux sociauxTechnologie
0

Meta, un pas vers l’AGI… à pas de loup !

« L’intelligence artificielle, c’est un peu comme une boîte de chocolats : on ne sait jamais sur quoi on va tomber, mais parfois, mieux vaut éviter de partager. » Eh bien, Mark Zuckerberg est d’accord!

Le magna des réseaux sociaux a récemment fait parler de lui en annonçant vouloir rendre l’intelligence artificielle générale (AGI) ouverte et accessible au monde entier. Mais, petit bémol: tout ce qui brille n’est pas open source chez Meta. En effet, un document fraîchement sorti de l’usine à idées, nommé « Frontier AI Framework », dresse la liste des IA de Meta jugées trop dangereuses pour être partagées.

Ce cadre stratégique identifie deux types d’IA qu’il vaudrait mieux garder sous clé : les systèmes à « haut risque » et ceux à « risque critique ». Ces petites merveilles technologiques auraient le pouvoir d’intervenir dans des scénarios inquiétants, par exemple en matière de cybersécurité ou de la prolifération d’armes biologiques à haut impact.

Meta doit jongler entre le partage d’innovations et la sauvegarde de notre chère planète bleue.

D’après le document, les mots « évaluation » et « précision quantitative » ne sont pas les premiers invités à cette fête. On se base plutôt sur les avis de chercheurs internes et externes, le tout passé au crible par les élites décisionnaires de Meta. Et si la science quantifiable manque de robustesse, c’est pas grave, disent-ils! Un carnet d’évaluation centré sur l’humain, ça marche aussi.

Et que se passe-t-il si une IA est définie à haut risque ? Elle restera confinée bien au chaud, jusqu’à ce que des mesures d’atténuation viennent alléger son potentiel dévastateur. En revanche, les systèmes « critique » n’auront même pas l’occasion de sentir l’air frais, le développement étant stoppé jusqu’à nouvel ordre.

Il semblerait que ce cadre soit la réponse de Meta aux critiques envers leur politique « ouverte » de développement de systèmes. Cela contraste habilement avec DeepSeek, une entreprise chinoise aux applications IA aussi ouvertes que ses sorties sont toxiques. Au fond, Meta veut séduire à la fois avec la carotte de l’innovation technologique et le bâton de la prudence.

Alors, comment s’en sortir dans ce kaléidoscope moral ? Meta nous souffle que tout est une question de balance : offrir à la société le bénéfice des avancées IA tout en maintenant le danger sous un seuil raisonnable. Prendre soin des humains tout en leur donnant un avant-goût de l’avenir. Comme quoi, tout n’est pas qu’algorithmes et statistiques, parfois le cœur a ses raisons que la logique ignore. Après tout, un peu de poésie dans ce monde de bits, ça ne fait pas de mal !

En espérant que Meta saura dompter ces IA et que leur distribution ne conduira pas à la fin du monde… ou au moins à un crash bien sonnant. Après tout, dans le monde des algorithmes, il est toujours bon de « garder un byte pour la fin ».

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.