Quel est le prix à payer pour l’utilisation croissante des agents d’intelligence artificielle au quotidien? Lors d’une récente intervention au SXSW à Austin, au Texas, Meredith Whittaker, présidente de Signal et fervente défenseure des communications sécurisées, a tiré la sonnette d’alarme en ce qui concerne ces nouveaux outils numériques. Mais qu’est-ce qui se cache réellement derrière cette innovation technologique en pleine expansion?
Les agents d’intelligence artificielle sont présentés comme des assistants capables d’améliorer notre vie en gérant diverses tâches en ligne à notre place. Réserver des billets pour un concert, planifier des événements dans notre calendrier, ou encore envoyer des messages à nos amis — ces technologies sont prêtes à suppléer nos actions. Mais sommes-nous prêts à mettre notre « cerveau dans un bocal », selon l’expression employée par Whittaker?
Derrière la promesse de faciliter nos vies, se profile un besoin d’accès profond de ces agents à nos données personnelles. Whittaker a mis en lumière les risques liés à la sécurité et à la confidentialité, lorsque ces agents doivent potentiellement accéder à nos navigateurs web, informations bancaires, calendriers et applications de messagerie. L’accès à toutes ces bases de données pourrait nécessiter une permission de type « root », ce qui peut poser problème pour la protection de notre vie privée.
L’avenir des agents IA est-il un péril pour notre vie privée?
La possibilité que ces opérations se déroulent sur des serveurs cloud plutôt que sur nos appareils soulève des inquiétudes supplémentaires. Meredith Whittaker met ainsi en garde contre une rupture potentielle de la barrière entre la couche applicative et le système d’exploitation, menaçant de brouiller les frontières entre services distincts et d’entremêler leurs données. Ces préoccupations soulignent un paradoxe: en cherchant à simplifier nos vies, compromettons-nous notre sécurité numérique?
Pour une application de messagerie comme Signal, intégrer ces agents IA pourrait directement violer la confidentialité des messages. L’agent doit, en effet, extraire et traiter les données pour accomplir ses tâches. Cette observation s’inscrit dans un contexte plus large de l’industrie de l’IA, souvent critiquée pour son modèle basé sur une collecte massive de données, avec le mantra « plus c’est gros, mieux c’est ».
Mais ces alliés numériques trop zélés pourraient-ils nous conduire à sacrifier notre intimité en échange de commodité? Whittaker nous met en garde: la promesse d’un « génie magique » capable de gérer tous les détails de la vie risque d’affaiblir encore davantage notre sécurité et confidentialité. Le jeu en vaut-il réellement la chandelle?
Source : Techcrunch