IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l'intelligence artificielle que trois fois par an

Le , par Stéphane le calme

0PARTAGES

5  0 
Microsoft teste une nouvelle politique controversée sur OneDrive : les utilisateurs ne pourront désactiver le scan automatique de leurs photos par l’intelligence artificielle que trois fois par an. Officiellement, l’objectif est d’assurer la stabilité du service et la conformité avec les lois sur les contenus illicites. Mais cette restriction interroge sur la place réelle du consentement et sur la compatibilité de cette pratique avec le RGPD européen, qui garantit le droit de retrait à tout moment.

Les services cloud de Microsoft, tels que OneDrive, intègrent désormais une analyse automatique des photos par intelligence artificielle. Concrètement, cela signifie que chaque image stockée peut être examinée par des algorithmes pour en extraire des informations utiles. Par exemple, Microsoft a introduit un système de reconnaissance faciale qui détecte les visages dans les photos et les regroupe par personne. L’objectif affiché est d’aider l’utilisateur à classer et retrouver plus facilement ses photos – il devient possible de rechercher toutes les images où apparaît un ami ou un membre de la famille simplement en tapant son nom.

En parallèle, OneDrive commence aussi à appliquer des étiquettes automatiques (AI tags) pour identifier les objets ou scènes dans les images (animaux, paysages, texte, etc.), ce qui améliore la recherche de contenus visuels.

Au-delà de ces fonctionnalités pratiques, le scan IA a également une dimension de sûreté et conformité légale. Microsoft, comme d’autres géants du cloud, utilise des technologies automatisées pour détecter la présence de contenus illicites dans les fichiers de ses utilisateurs. En particulier, les images sont comparées à des bases de données de photos connues d’abus d’enfants via des empreintes numériques (la technologie PhotoDNA développée par Microsoft). Si du matériel pédopornographique est identifié, Microsoft le signale aux autorités compétentes, conformément à ses conditions d’utilisation qui interdisent tout contenu exploitant ou mettant en danger des enfants.

De même, des systèmes de filtrage peuvent repérer d’autres contenus prohibés (violences extrêmes, terrorisme), ceci sans intervention humaine directe. En somme, vos photos stockées sur OneDrive ne sont pas inertes : elles sont passées au crible par des algorithmes, que ce soit pour vous proposer des classements intelligents ou pour s’assurer du respect de la loi.


Cette automatisation soulève naturellement des préoccupations pour les utilisateurs. D’un côté, elle offre des services utiles (classement par personne, recherche par mot-clé visuel) sans effort manuel. De l’autre, elle implique qu’une IA « regarde » chaque photo personnelle, y compris des images privées ou sensibles, afin d’en extraire des informations (visages, objets, nudité potentielle, etc.).

Même si Microsoft assure que ce processus est automatisé et qu’aucun humain ne regarde vos photos, certains utilisateurs peuvent percevoir cela comme une forme de surveillance de leur vie privée. La détection de contenu illicite, en particulier, a fait l’objet de cas médiatisés*: par exemple, un père de famille s’est vu suspendre son compte chez un autre fournisseur (Google en l'occurrence) après que des photos médicales de son enfant ont été mal interprétées par un algorithme comme de la nudité infantile. Ces situations illustrent les risques de faux positifs et les conséquences graves que peut avoir un scan automatisé erroné. La fonctionnalité de scan IA de OneDrive doit donc trouver un équilibre délicat entre l’amélioration de l’expérience utilisateur, la protection de tous (en identifiant les contenus criminels) et le respect de la vie privée des personnes.

Une désactivation limitée à trois fois par an

Si un utilisateur ne souhaite pas que ses photos soient analysées par l’IA, Microsoft offre une option pour désactiver la reconnaissance faciale et les tags automatiques dans OneDrive. Cependant, la décision controversée de l’éditeur est de restreindre cette désactivation à « trois fois par an ». En effet, dans l’interface de l’application OneDrive (section « Confidentialité et autorisations »), un message explicite indique : « OneDrive utilise l’IA pour reconnaître les visages sur vos photos… Vous ne pouvez modifier ce réglage que 3 fois par an. »

Autrement dit, Microsoft ne permettrait de couper puis de réactiver cette fonction qu’un nombre limité de fois sur une année glissante, une limite sur laquelle Microsoft n'a pas souhaité ajouter de précisions.

Dans la pratique, cette restriction a déjà été ressentie par les premiers usagers concernés. Un utilisateur ayant découvert la présence de cette option « Personnes » activée par défaut a tenté de la mettre sur « No » (désactivée) : l’interface a alors refusé le changement avec un message d’erreur (« Something went wrong while updating this setting »), vraisemblablement parce qu’il n’était pas « dans une des trois fois autorisées de l’année ».

Pour l’instant, la fonctionnalité n’est déployée qu’en version d’essai (preview) auprès d’un nombre limité d’utilisateurs ; Microsoft a confirmé que cette phase de test vise à « apprendre et améliorer » le service avant un déploiement plus large. Notons que la désactivation entraîne la suppression de toutes les données biométriques collectées (groupements de visages, étiquettes) sous 30 jours. Si l’utilisateur réactive ensuite l’option, l’IA devra recommencer l’analyse depuis zéro sur l’ensemble des photos.


Capture d’écran de l’application OneDrive (aperçu de la section “Personnes”) montrant le message qui limite la désactivation de la reconnaissance faciale à trois fois par an. OneDrive y précise utiliser l’IA pour regrouper les photos contenant des visages familiers.

Microsoft n’a pas fourni d’explication claire sur le choix arbitraire de « trois fois par an »

Interrogée à ce sujet, la société s’est abstenue de répondre, se contentant de rappeler que « OneDrive hérite des fonctionnalités et paramètres de confidentialité de Microsoft 365 et SharePoint, lorsque applicable ». Face à ce silence, les spéculations vont bon train. Certains avancent une possible raison technique : chaque désactivation oblige à effacer des données et chaque réactivation impose de re-scanner potentiellement des milliers de photos, ce qui mobilise beaucoup de ressources de calcul.

Limiter le nombre de changements empêcherait des allers-retours trop fréquents qui satureraient les serveurs. D’autres y voient surtout une manœuvre pour décourager l’opt‑out : en restreignant strictement les occasions de couper l’IA, Microsoft s’assure que la grande majorité des utilisateurs laisseront la fonction activée en permanence. Quoi qu’il en soit, la mesure est perçue comme inhabituelle et contraignante. « Pourquoi pas quatre fois ? Ou aussi souvent que l’utilisateur le souhaite ? » s’interroge avec ironie un journaliste du Register, soulignant l’aspect pour le moins arbitraire de cette limite annuelle

Il reste également à éclaircir comment ce compteur est appliqué : s’agit-il de l’année calendaire ? D’un cycle de 12 mois glissants à partir de la première modification ? Le flou demeure complet sur ces détails pratiques.

En l’état actuel (phase de test), la reconnaissance de personnes dans OneDrive est activée par défaut pour les utilisateurs qui y ont accès. Cela signifie qu’elle est en opt-out : c’est à l’usager de se rendre dans les paramètres s’il souhaite la désactiver. Ce choix par défaut, combiné à l’imposition d’une fréquence maximale de modification, a rapidement fait bondir les défenseurs de la vie privée.

Enjeux de confidentialité et protection des données personnelles

Cette décision de Microsoft soulève d’importants enjeux de confidentialité.

D’une part, l’analyse IA des photos implique la collecte de données personnelles sensibles. Identifier les visages sur vos clichés revient à traiter des données biométriques (les caractéristiques faciales permettant de distinguer une personne). Ces données, bien que stockées côté utilisateur, sont calculées et conservées par Microsoft pour fournir la fonctionnalité. L’entreprise se veut rassurante en affirmant que les regroupements de visages restent strictement privés (uniquement visibles par le propriétaire du compte) et ne sont pas utilisés pour entraîner les modèles d’IA globaux de Microsoft. En outre, Microsoft promet de ne pas exploiter ces données à des fins commerciales, publicitaires ou de marketing, ni de les partager à des tiers sans consentement. Ces engagements figurent dans la documentation de OneDrive et la déclaration de confidentialité de Microsoft.

D’autre part, de nombreux utilisateurs et experts estiment que la décision doit revenir à l’individu de consentir (ou non) à ce type d’analyse sur ses contenus personnels. Or, Microsoft a choisi un modèle où l’option est activée sans action de l’usager (opt-out plutôt qu’opt-in), ce qui est critiqué comme un manquement au principe de consentement explicite en matière de vie privée.

« Toute fonctionnalité ayant trait à la vie privée devrait idéalement être opt-in, avec une documentation claire pour que les utilisateurs comprennent ses bénéfices et risques et puissent choisir en connaissance de cause » rappelle ainsi Thorin Klosowski, un activiste sécurité/vie privée à l’Electronic Frontier Foundation

Dans le cas présent, non seulement OneDrive active la reconnaissance faciale par défaut, mais il complique l’exercice du choix en restreignant la liberté de changer d’avis. Une fois la fonction coupée, un utilisateur prudent pourrait hésiter à la réactiver s’il sait qu’il n’aura plus que deux (puis une, puis zéro) possibilités de la désactiver de nouveau dans l’année. Cette limitation est perçue comme contraire aux bonnes pratiques de contrôle utilisateur, voire paternaliste. « Les gens devraient pouvoir modifier leurs réglages quand ils le veulent, car on traverse tous des situations où l’on doit réévaluer nos paramètres de confidentialité » insiste Klosowski, qui juge le plafond de trois fois par an particulièrement restrictif.

Enfin, cette initiative s’inscrit dans une tendance plus large où Microsoft injecte de l’IA dans tous ses produits (Windows, Office 365 Copilot, etc.), parfois de manière forcée. Certains observateurs y voient un glissement des standards de confidentialité : ce qui était autrefois opt-in ou manuel devient automatique, et il devient de plus en plus difficile d’y échapper sans effort. « Il est difficile de ne pas voir cela comme une nouvelle façon discrète pour l’IA d’éroder les normes de vie privée et de s’immiscer là où elle n’est pas toujours la bienvenue » commente un chroniqueur, qui note qu’isolément la fonctionnalité OneDrive peut sembler anodine, mais qu’elle s’ajoute à une série d’initiatives imposant l’IA un peu partout.

Avis des experts et réactions de la communauté

La limitation de la désactivation à trois fois par an a suscité de vives réactions parmi les experts en cybersécurité et en droit du numérique. Du côté des défenseurs de la vie privée, le verdict est sans appel : c’est une idée malavisée. Thorin Klosowski (EFF), déjà cité plus haut, exprime son incompréhension face à ce choix qu’il juge anti-utilisateur. Pour lui, non seulement la fonctionnalité aurait dû être facultative à l’activation, mais en plus brider la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !