Linkedin login screen with join now option

Credits image : Zulfugar Karimov / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Erreur, Résumeur et Confidentialité : Copilot sur la touche !

« Un bug, ce n’est pas grave, tant que ce n’est pas celui qui lit tes e-mails… »

Vous pensiez que le plus gros danger du numérique, c’était ce collègue qui oublie de mettre les pièces jointes ? Détrompez-vous ! Chez Microsoft, même Copilot, la coqueluche de l’IA, s’est transformée en stagiaire un peu trop zélé : pendant plusieurs semaines, le robot résumait tranquillement les e-mails ultra confidentiels de ses utilisateurs… sans même demander l’autorisation. Sacré sens de l’initiative, non ?

Tout commence avec la découverte de Bleeping Computer – les Sherlock Holmes du web – qui s’aperçoivent que Copilot Chat a eu la main un peu lourde depuis janvier. La fonctionnalité, normalement réservée à donner un coup de pouce dans Word, Excel ou PowerPoint (ou à écrire vos excuses pour le troisième retard de la semaine), s’est soudainement passionnée pour vos e-mails. Même les entreprises équipées jusqu’aux dents en politiques de prévention des fuites de données n’y ont vu que du feu. Bravo la confidentialité !

Quand l’IA veut bien faire, parfois elle en fait beaucoup… trop.

Le problème était simple : même les courriels estampillés « secret défense » se sont retrouvés dans les griffes de Copilot, devenu malgré lui expert en lecture de courriers indiscrets. Microsoft a fini par reconnaître le bug, qui porte le doux nom de CW1226324 (encore plus mystérieux qu’un épisode de Black Mirror). Bonne nouvelle : un correctif était déjà en cours de déploiement début février. Mauvaise nouvelle : impossible de savoir combien de clients ont été touchés, la firme reste muette comme une boîte mail vide.

Dans la foulée, l’Union européenne n’a pas tardé à réagir en bloquant les fonctionnalités IA sur les appareils des parlementaires, préférant sans doute éviter que leurs petites discussions stratégiques ne finissent dans le cloud. On n’est jamais trop prudent : on ne confie pas ses secrets d’alcôve à un robot trop bavard !

Ce nouvel épisode rappelle gentiment (voire fermement !) que l’IA, aussi futée soit-elle, a parfois besoin d’un mode d’emploi ou au moins de quelques limites claires. Sinon, il n’y a plus qu’à organiser une réunion Teams… pour discuter de la meilleure façon d’éviter que le stagiaire numérique ne farfouille dans les dossiers sensibles.

Alors, avant d’envoyer votre prochain e-mail confidentiel, réfléchissez-y à deux fois : « Copilot » ne veut pas dire « confident »… et il n’est peut-être pas aussi discret que ce fameux collègue à la machine à café.

En conclusion : Microsoft Copilot, c’est super, mais pas toujours pour vos secrets. Espérons qu’après ce bug, Microsoft comprenne que, parfois, il faut vraiment laisser tourner les serviettes… pas les discussions privées !

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.