« Un bug, ce n’est pas grave, tant que ce n’est pas celui qui lit tes e-mails… »
Vous pensiez que le plus gros danger du numérique, c’était ce collègue qui oublie de mettre les pièces jointes ? Détrompez-vous ! Chez Microsoft, même Copilot, la coqueluche de l’IA, s’est transformée en stagiaire un peu trop zélé : pendant plusieurs semaines, le robot résumait tranquillement les e-mails ultra confidentiels de ses utilisateurs… sans même demander l’autorisation. Sacré sens de l’initiative, non ?
Tout commence avec la découverte de Bleeping Computer – les Sherlock Holmes du web – qui s’aperçoivent que Copilot Chat a eu la main un peu lourde depuis janvier. La fonctionnalité, normalement réservée à donner un coup de pouce dans Word, Excel ou PowerPoint (ou à écrire vos excuses pour le troisième retard de la semaine), s’est soudainement passionnée pour vos e-mails. Même les entreprises équipées jusqu’aux dents en politiques de prévention des fuites de données n’y ont vu que du feu. Bravo la confidentialité !
Quand l’IA veut bien faire, parfois elle en fait beaucoup… trop.
Le problème était simple : même les courriels estampillés « secret défense » se sont retrouvés dans les griffes de Copilot, devenu malgré lui expert en lecture de courriers indiscrets. Microsoft a fini par reconnaître le bug, qui porte le doux nom de CW1226324 (encore plus mystérieux qu’un épisode de Black Mirror). Bonne nouvelle : un correctif était déjà en cours de déploiement début février. Mauvaise nouvelle : impossible de savoir combien de clients ont été touchés, la firme reste muette comme une boîte mail vide.
Dans la foulée, l’Union européenne n’a pas tardé à réagir en bloquant les fonctionnalités IA sur les appareils des parlementaires, préférant sans doute éviter que leurs petites discussions stratégiques ne finissent dans le cloud. On n’est jamais trop prudent : on ne confie pas ses secrets d’alcôve à un robot trop bavard !
Ce nouvel épisode rappelle gentiment (voire fermement !) que l’IA, aussi futée soit-elle, a parfois besoin d’un mode d’emploi ou au moins de quelques limites claires. Sinon, il n’y a plus qu’à organiser une réunion Teams… pour discuter de la meilleure façon d’éviter que le stagiaire numérique ne farfouille dans les dossiers sensibles.
Alors, avant d’envoyer votre prochain e-mail confidentiel, réfléchissez-y à deux fois : « Copilot » ne veut pas dire « confident »… et il n’est peut-être pas aussi discret que ce fameux collègue à la machine à café.
En conclusion : Microsoft Copilot, c’est super, mais pas toujours pour vos secrets. Espérons qu’après ce bug, Microsoft comprenne que, parfois, il faut vraiment laisser tourner les serviettes… pas les discussions privées !
Source : Techcrunch




