Microsoft edge browser app on a smartphone screen.

Credits image : Zulfugar Karimov / Unsplash

Intelligence ArtificielleTechnologieWeb3
0

Les navigateurs intelligents : la sécurité peut-elle suivre le rythme de l’automatisation ?

Les navigateurs web du futur sont-ils en train de devenir trop intelligents pour notre propre sécurité ? Alors que des géants technologiques comme Google intègrent des fonctions dites « agentiques » dans leurs navigateurs, une question demeure : jusqu’où peut-on automatiser nos tâches sans mettre en danger la confidentialité et l’intégrité de nos données ?

En septembre dernier, Google a effectivement levé le voile sur de nouvelles fonctionnalités basées sur l’intelligence artificielle Gemini dans Chrome. Ces outils seront bientôt capables de réserver des billets, faire du shopping à votre place, voire même remplir des formulaires administratifs. Mais qui surveille ces assistants hyperactifs ? Et que se passe-t-il si un agent prend une initiative qui ne correspond pas à vos attentes ou navigue accidentellement sur un site malveillant ?

Pour éviter ce genre de dérapages, Google mise sur un modèle original : un « User Alignment Critic ». Développé grâce à Gemini, ce module analyse les actions prévues par l’agent pour vérifier qu’elles remplissent bien l’objectif souhaité par l’utilisateur. Si la critique détecte un problème, elle ordonne de revoir la stratégie. Or, le Critic ne considère que les métadonnées, pas le contenu réel de la page : pourrait-il oublier certains risques dissimulés dans la substance d’un site web ?

Plus les agents deviennent autonomes, plus la frontière entre sécurité et praticité devient fine.

Par ailleurs, Google limite l’accès à certaines parties du web via un système baptisé « Agent Origin Sets ». Concrètement, l’IA ne peut interagir qu’avec des sources « lisibles » ou « modifiables » précisément balisées, réduisant ainsi le risque de fuites inter-domaines. Mais entre zones de confiance et zones interdites, comment garantir qu’aucune brèche ne subsiste ? La firme précise que le navigateur contrôle aussi les URL générées pour éviter les dérives lors de la navigation. Peut-on véritablement faire confiance à ces contre-mesures automatisées, alors même que la menace évolue sans cesse ?

Sur le plan de la confidentialité, Google promet un contrôle total à l’utilisateur lorsque des informations sensibles sont en jeu. Si l’agent tente par exemple de visiter un site bancaire ou médical, il devra obtenir l’aval explicite de l’humain. Idem pour l’utilisation du gestionnaire de mots de passe ou la réalisation d’un achat. Pourtant, ces vagues promesses suffiront-elles à bloquer une attaque bien orchestrée ou un détournement de session ?

En parallèle, les autres acteurs du secteur ne restent pas inactifs. Perplexity, navigateur dopé à l’IA, vient de lancer un outil open source pour détecter les attaques de type « prompt injection » qui manipulent les instructions des agents. Guerre de l’IA contre la cybercriminalité ou simple course sans fin à l’armement ?

Finalement, toute cette automatisation nous simplifiera-t-elle la vie… ou au contraire, ouvrira-t-elle la porte à de nouveaux types de fraudes sophistiquées ? Le progrès intelligent des navigateurs signera-t-il la fin de la vigilance humaine en ligne ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.