Microsoft a confirmé l'existence d'un bug critique dans Microsoft 365 Copilot, permettant à l'assistant IA de résumer des e-mails pourtant étiquetés « confidentiels » et protégés par des politiques de prévention des pertes de données. Actif depuis fin janvier 2026 et révélé au grand public mi-février, l'incident soulève des questions fondamentales sur la maturité sécuritaire des IA intégrées dans les environnements professionnels — et sur la robustesse réelle des garde-fous que les entreprises croient avoir mis en place.Depuis septembre 2025, les abonnés payants de Microsoft 365 Business ont accès à Copilot Chat, l'assistant IA intégré à Word, Excel, PowerPoint, Outlook et OneNote. Son principe de fonctionnement repose sur une intégration profonde avec Microsoft Graph : pour répondre à une question, Copilot parcourt l'ensemble du corpus documentaire et de messagerie de l'utilisateur, extrait les éléments pertinents, les charge dans son contexte et génère une réponse synthétique. C'est précisément cette capacité qui le rend utile — et potentiellement dangereuse si les mécanismes de contrôle d'accès fléchissent.
Selon une alerte de service, le bug (référencé CW1226324 et détecté pour la première fois le 21 janvier) affecte la fonctionnalité « work tab » de Copilot Chat, qui lit et résume de manière incorrecte les e-mails stockés dans les dossiers Éléments envoyés et Brouillons des utilisateurs, y compris les messages portant des étiquettes de confidentialité explicitement conçues pour restreindre l'accès aux outils automatisés.
En clair : des e-mails que les équipes de sécurité avaient soigneusement classifiés, sur lesquels des politiques DLP (Data Loss Prevention) avaient été configurées pour empêcher tout traitement automatisé, se retrouvaient quand même résumés — et potentiellement exposés — par l'IA. Le mécanisme de protection, censé constituer le dernier rempart avant le gouffre de l'IA générative, ne fonctionnait tout simplement pas.
Anatomie d'un bug à fort impact de conformité
Pour comprendre la gravité de l'incident, il faut revenir sur l'architecture de protection que Microsoft propose autour de Copilot. Microsoft Purview permet aux organisations d'apposer des étiquettes de sensibilité sur leurs documents et e-mails : « Confidentiel », « Usage interne uniquement », « Hautement restreint », etc. Ces étiquettes peuvent déclencher le chiffrement, restreindre le transfert, appliquer des filigranes, et surtout — via les politiques DLP — interdire à Copilot d'ingérer le contenu concerné dans ses réponses.
Le bug CW1226324, détecté autour du 21 janvier 2026 suite à des signalements clients, a conduit Copilot Chat à inclure de manière incorrecte des éléments des dossiers Éléments envoyés et Brouillons dans son ensemble de récupération, même lorsque ces e-mails portaient des étiquettes de sensibilité et des protections de politique DLP.
Le point de défaillance se situait donc précisément dans la phase de retrieval — l'étape où l'assistant sélectionne les contenus pertinents avant de les injecter dans son contexte de génération. Un défaut dans ce chemin de code permettait aux éléments protégés de "passer à travers" le filtre, rendant caduques toutes les protections configurées en aval. Une petite erreur logique dans le chemin de récupération pouvait ainsi convertir une boîte mail contrôlée en une base de connaissances consultable par l'assistant IA.
Pourquoi les dossiers Éléments envoyés et Brouillons sont-ils particulièrement sensibles ? Parce qu'ils contiennent souvent les communications les plus délicates : contrats finalisés avant envoi, correspondances légales en cours de rédaction, documents confidentiels transmis en externe, données personnelles non encore expurgées. Un bug « limité » à ces deux dossiers est en réalité d'une redoutable portée métier.
Des semaines d'exposition silencieuse
La chronologie de l'incident est instructive. Le 21 janvier 2026, la télémétrie de Microsoft a signalé pour la première fois un comportement anormal de Copilot lié aux étiquettes confidentielles. Fin janvier et début février, des clients et des administrateurs IT ont remarqué que Copilot Chat retournait des résumés référençant des éléments confidentiels dans les dossiers Éléments envoyés et Brouillons, malgré les étiquettes de sensibilité et les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.