« Confierait-on à une IA le choix de sa sauce dans un kebab ? Probablement pas. Mais pour contrôler la sécurité de nos applis préférées, Meta dit : “Et pourquoi pas ?” »
Imaginez la scène : dans les bureaux rutilants de Meta, un robot tapote frénétiquement sur un clavier virtuel, chargé d’inspecter la sécurité des mises à jour d’Instagram et WhatsApp. Vous croyez rêver ? Pas du tout ! Selon des documents internes dénichés par NPR, la firme de Mark Zuckerberg planche sur un système automatisé et dopé à l’intelligence artificielle, capable d’évaluer, à elle seule, jusqu’à 90 % des éventuelles failles de confidentialité et autres petits tracas numériques de ses applications vedettes.
Petit rappel pour ceux qui auraient boudé leur cours d’histoire numérique : depuis un accord passé en 2012 avec la très sérieuse Federal Trade Commission, Meta (ex-Facebook pour les nostalgiques) se doit de passer sa technologie sous les fourches caudines d’une vérification réglementaire de la vie privée. Jusqu’ici, c’était encore à de vrais humains à lunettes de jouer les détectives privés. Hélas, le badge “humain” semble de plus en plus appartenir au passé…
Automatiser la surveillance, c’est risquer de confondre rapidité et précipitation, surtout quand il s’agit de protéger nos données.
Dans la version 2025 du contrôle qualité à la sauce Meta, les équipes produits devraient d’abord remplir un petit questionnaire (pas tout à fait un test de personnalité, mais presque). Et magie de l’IA oblige, une décision instantanée, saupoudrée de risques identifiés par l’algorithme, tombera alors du ciel, assortie d’une liste de contraintes à respecter avant tout lancement de nouveauté.
Il y a du positif là-dedans, on ne va pas bouder notre plaisir. Oui, ça pourrait rendre les mises à jour plus rapides et fluides que la file d’attente du drive un vendredi soir. Mais une voix (humaine, celle-là !) s’élève tout de même dans ce concert techno : un ancien exécutif met en garde, expliquant à NPR que cette frénésie d’automatisation risque fort de faire passer certains dangers… sous le radar. Moins d’yeux humains, c’est aussi l’assurance qu’on repérera moins les effets secondaires gênants avant qu’ils ne déferlent dans la vraie vie numérique.
Rassurez-vous (ou pas !), Meta s’est empressé de préciser que seuls les “dossiers à faible risque” seraient jugés sans jury humain. Les vraies situations épineuses seront toujours converties en réunion Teams, histoire de garder un peu d’esprit critique et de sueur froide… le tout, bien sûr, au nom de notre chère vie privée.
Alors, faut-il se réjouir de voir l’intelligence artificielle s’inviter dans les bureaux des RGPDistes high-tech ? Gageons qu’avec un peu de chance, la prochaine mise à jour décidera toute seule si nos photos de chat méritent vraiment d’être privées ou publiques… À l’heure où Meta confie ses clés à la technologie, espérons que l’algorithme ne devienne pas un “Meta-défaut” de sécurité !
Source : Techcrunch