
Microsoft avait précédemment déclaré « qu'il n'y a pas de preuve que nos technologies Azure et AI ont été utilisées pour nuire à des personnes »
Alors que les conflits armés deviennent de plus en plus technologiques, Microsoft est confrontée à une pression inédite. Un groupe d'actionnaires demande des comptes sur la manière dont l'entreprise gère les risques de complicité dans des violations des droits humains, notamment en lien avec les opérations militaires israéliennes à Gaza. Au cœur du débat : l’usage potentiellement meurtrier de ses services cloud et d’intelligence artificielle.
Mené par les Religious of the Sacred Heart of Mary (Religieuses du Sacré-Cœur de Marie), le groupe d'actionnaires demande la publication d'un rapport évaluant l'efficacité des processus de DRDH de Microsoft pour « prévenir, identifier et traiter l'utilisation abusive par les clients des produits ou services d'intelligence artificielle et de cloud de Microsoft qui violent les droits humains ou le droit international humanitaire ».
Contexte
En mai 2025, face à la pression médiatique, Microsoft a publié une déclaration officielle dans laquelle elle affirme qu’aucune preuve n’a été trouvée que ses technologies aient été utilisées pour blesser ou tuer des civils à Gaza. L’entreprise précise qu’une évaluation externe a été menée, sans toutefois nommer le cabinet chargé de cette enquête, ni expliquer la méthode employée. Par ailleurs, elle reconnaît un point crucial : Microsoft ne peut pas surveiller directement l’usage fait de ses logiciels par les clients, une fois installés sur des serveurs privés.
Cette position, que d’aucuns jugent hypocrite, revient à admettre que Microsoft vend potentiellement des outils puissants sans moyen concret d’en empêcher l’usage meurtrier.
Le conflit israélo-palestinien à Gaza a engendré des préoccupations humanitaires majeures. Dans ce contexte tendu, des allégations ont émergé concernant l'utilisation des technologies d'intelligence artificielle et de cloud de Microsoft par l'armée israélienne, soulevant des questions sur une potentielle complicité de l'entreprise dans ces violations.
Face à ces allégations, un groupe de plus de 60 actionnaires de Microsoft a déposé une proposition exigeant de l'entreprise la publication d'un rapport évaluant l'efficacité de ses processus de diligence raisonnable en matière de droits humains (DRDH). Cette demande n'est pas seulement motivée par des considérations morales, mais aussi par la reconnaissance des « risques matériels juridiques, opérationnels et réputationnels » qu'une DRDH inadéquate expose l'entreprise, pouvant « impacter négativement la valeur actionnariale ».
Allégations d'utilisation des technologies Microsoft (IA et Cloud Azure) par l'armée israélienne et leur rôle présumé dans les opérations militaires
L'allégation centrale est que les produits d'IA et de cloud de Microsoft sont utilisés par l'armée israélienne, potentiellement pour cibler des personnes et commettre des crimes de guerre, violant ainsi les droits humains et le droit international humanitaire. Une enquête de l'Associated Press a révélé une augmentation spectaculaire de l'utilisation de l'IA et des services informatiques de Microsoft et OpenAI par l'armée israélienne après le 7 octobre 2023, atteignant près de 200 fois le niveau précédent en mars 2024.
L'armée israélienne utiliserait l'IA pour analyser de vastes quantités de renseignements, de communications interceptées et de surveillance afin d'identifier des comportements suspects et les mouvements d'ennemis, ainsi que pour aider à la sélection de cibles. Des préoccupations ont été soulevées quant à la contribution de ces outils aux décès de civils, notamment en raison de données défectueuses ou d'algorithmes erronés. Un cas d'erreur de frappe sur une famille civile a été cité, bien que l'armée israélienne ait nié l'utilisation directe de l'IA lors de la frappe elle-même, refusant de confirmer si l'IA avait aidé à la sélection de la cible. Des organisations de défense des droits humains et des rapports médiatiques ont allégué que Microsoft et OpenAI auraient fourni des outils d'IA et des services cloud à Israël, permettant un ciblage automatisé à Gaza et au Liban, ce qui a suscité des inquiétudes quant aux victimes civiles et à la potentielle complicité des grandes entreprises technologiques dans les crimes de guerre.
Le défi de la « technologie à double usage » et la responsabilité des fournisseurs sont au cœur de cette controverse. Microsoft fournit des services cloud et d'IA génériques (Azure, traduction linguistique) au Ministère de la Défense israélien (IMOD). Ces technologies sont par nature « à double usage », ce qui signifie qu'elles peuvent être utilisées à des fins civiles légitimes ou à des fins militaires potentiellement problématiques. L'AP a constaté une « montée en flèche » de leur utilisation par l'armée israélienne. Microsoft affirme ne pas fournir de logiciels de ciblage spécifiques. Cependant, l'augmentation de l'utilisation de services génériques dans un contexte de conflit intense et d'allégations de ciblage automatisé soulève la question de la responsabilité de l'entreprise pour l'utilisation finale de ses produits, même s'ils ne sont pas spécifiquement conçus pour des opérations militaires. La diligence raisonnable en matière de droits humains doit aller au-delà de l'intention initiale de la technologie et évaluer les risques liés à son utilisation potentielle ou réelle par les clients, en particulier dans des contextes sensibles. La distinction entre « fournir des outils génériques » et « être complice » devient floue lorsque ces outils sont massivement adoptés et intégrés dans des systèmes militaires ayant des impacts avérés sur les droits humains. Cela met en lumière la nécessité de politiques claires sur les technologies à double usage et de mécanismes de surveillance robustes.
Des protestations et des appels à l'action contre Microsoft
La proposition des actionnaires est l'aboutissement d'une série de protestations et de critiques antérieures. Des employés actuels et anciens de Microsoft, regroupés sous le nom de « No Azure for Apartheid », ont mené des actions, notamment en interrompant des événements majeurs de Microsoft comme la conférence Build 2025.
Alors que Mustafa Suleyman, PDG de la division IA de Microsoft, présentait des mises à jour sur le produit Copilot, Ibtihal Aboussad, désormais ancienne employée de Microsoft, a interrompu la présentation en s'avançant vers la scène. Elle a accusé Suleyman et l'entreprise de complicité dans les actions militaires en cours au Moyen-Orient, déclarant : « Honte à vous ! Vous êtes un profiteur de guerre. Arrêtez d'utiliser l'IA pour le génocide. Arrêtez d'utiliser l'IA pour le génocide dans notre région. Vous avez du sang sur les mains. Tout Microsoft a du sang sur les mains. Comment osez-vous célébrer alors que Microsoft tue des enfants ? Honte à vous tous ».
Plus tard durant l'évènement, Vaniya Agrawal, une ingénieure logicielle qui a elle aussi quitté le bateau Microsoft, a interrompu une discussion réunissant les dirigeants actuels et passés de Microsoft, dont Bill Gates, Steve Ballmer et Satya Nadella. Agrawal a critiqué les contrats de Microsoft avec le ministère israélien de la Défense, soulignant un contrat présumé de 133 millions de dollars et l'utilisation des technologies Azure et de l'IA de Microsoft dans des opérations militaires. Elle a exhorté l'entreprise à cesser ses collaborations avec le gouvernement et l'armée israéliens, déclarant :
« Honte à vous tous. Vous êtes tous des hypocrites », sous les huées de la foule. « 50 000 Palestiniens de Gaza ont été assassinés grâce à la technologie de Microsoft. Comment osez-vous ? Honte à vous tous qui célébrez leur sang. Coupez les liens avec Israël ». Elle a ensuite mentionné No Azure for Apartheid, le groupe qui a coordonné les manifestations à l'intérieur et à l'extérieur de la salle ce jour-là. Il s'agit d'un mouvement qui existe depuis longtemps parmi certains employés de l'entreprise.
Microsoft : « il n'y a pas de preuve que nos technologies Azure et AI ont été utilisées pour nuire à des personnes »
Microsoft a annoncé en mai qu'elle avait récemment mené un examen interne et fait appel à une société externe anonyme pour évaluer la manière dont sa technologie est utilisée dans le conflit à Gaza. Microsoft affirme que sa relation avec le ministère israélien de la défense (IMOD) est « structurée comme une relation commerciale standard » et qu'elle n'a « trouvé aucune preuve que les technologies Azure et AI de Microsoft, ou tout autre logiciel, ont été utilisées pour nuire à des personnes ou que l'IMOD n'a pas respecté nos conditions de service ou notre code de conduite en matière d'intelligence artificielle ».
Microsoft a mentionné avoir fourni un « soutien d'urgence limité » au gouvernement israélien dans les semaines suivant le 7 octobre 2023 pour aider à sauver des otages. Ce soutien a été décrit comme « étroitement contrôlé », avec une « supervision significative » et l'approbation ou le refus de certaines demandes. L'entreprise a également affirmé ne pas avoir créé ou fourni de logiciels de surveillance ou d'opérations spécifiques à l'IMOD, notant que les armées utilisent généralement leurs propres logiciels propriétaires pour ce type d'opérations.
Malgré ses conclusions, Microsoft a explicitement reconnu des limites à sa capacité de vérification. L'entreprise a déclaré ne pas avoir de « visibilité sur la manière dont les clients utilisent nos logiciels sur leurs propres serveurs ou d'autres appareils », y compris les systèmes sur site (on-premises). De même, Microsoft a indiqué n'avoir aucune visibilité sur les opérations cloud du gouvernement israélien qui sont prises en charge par d'autres fournisseurs de cloud. Ces situations, par définition, ne sont pas couvertes par leurs revues
Ce « fossé de visibilité » est une vulnérabilité systémique de la diligence raisonnable en matière de droits humains pour les entreprises technologiques. Microsoft affirme n'avoir trouvé « aucune preuve » de mauvaise utilisation de ses technologies, mais admet simultanément un « manque de visibilité » crucial sur l'utilisation de ses logiciels sur les serveurs des clients ou via d'autres fournisseurs de cloud. Cette admission est directement contredite par les allégations des employés et de l'AP, qui soulignent une utilisation accrue de l'IA de Microsoft pour le ciblage.
D'ailleurs, pour Hossam Nasr, organisateur de No Azure for Apartheid (Noaa) et ancien employé de Microsoft licencié pour avoir organisé une veillée devant le siège de Microsoft pour les Palestiniens tués à Gaza, cette déclaration de l'entreprise est contradictoire. « D'un côté, ils affirment que leur technologie n'est pas utilisée pour nuire aux habitants de Gaza, et de l'autre, ils admettent qu'ils n'ont aucune idée de la manière dont leurs technologies sont utilisées », a-t-il déclaré. « Il est très clair que leur intention avec cette déclaration n'est pas de répondre aux préoccupations de leurs travailleurs, mais plutôt de faire un coup de relations publiques pour blanchir leur image qui a été ternie par leur relation avec l'armée israélienne ».
Insuffisant, selon des investisseurs
Microsoft fait face à de nouvelles pressions concernant l'utilisation par l'armée israélienne de ses produits d'intelligence artificielle et de cloud, un groupe de plus de 60 actionnaires ayant déposé une proposition demandant à l'entreprise de publier un rapport évaluant l'efficacité de ses « processus de diligence raisonnable en matière de droits de l'homme [HRDD] dans la prévention, l'identification et le traitement de l'utilisation abusive par les clients des produits ou services d'intelligence artificielle et de cloud de Microsoft qui violent les droits de l'homme ou le droit humanitaire international ».
« Microsoft affirme qu'elle mène une politique de développement des ressources humaines tout au long de sa chaîne de valeur, conformément à ses obligations en vertu des Principes directeurs de l'ONU, mais elle n'explique pas ses processus de développement des ressources humaines liés à l'utilisation finale par les clients et ne rend pas compte de leur efficacité », peut-on lire dans le texte de la résolution. « Les récentes allégations d'utilisation abusive par des clients suggèrent que le DRH de Microsoft pourrait être inefficace ».
« Face aux graves allégations de complicité de génocide et d'autres crimes internationaux, les processus de DRH de Microsoft semblent inefficaces. Microsoft a récemment publié une déclaration en réponse à ces allégations, expliquant qu'elle avait procédé à un examen interne et demandé à une société tierce d'« entreprendre une enquête supplémentaire », et concluant qu'elle « n'a trouvé aucune preuve à ce jour que les technologies Azure et AI de Microsoft ont été utilisées pour cibler ou nuire à des personnes dans le conflit à Gaza ».
Les actionnaires concernés détiennent plus de 80 millions de dollars d'actions Microsoft, ce qui représente à la fois beaucoup d'argent et une part infime de la valeur totale de Microsoft. Rewan Haddad, directeur de campagne à l'organisation de défense des consommateurs Eko, a déclaré que le nombre et la diversité des coauteurs de la résolution - le plus grand nombre de coauteurs pour une seule résolution d'actionnaires de Microsoft, selon l'organisation - « montrent l'ampleur de la frustration des actionnaires à l'égard de Microsoft ».
Cela se reflète également dans la résolution elle-même, qui note que « l'inadéquation du DRH expose Microsoft à des risques juridiques, opérationnels et de réputation importants », qui peuvent tous avoir un impact négatif sur la valeur actionnariale. Il s'agit là d'un langage purement commercial, qui préoccupe certainement les actionnaires dont la préoccupation première est l'argent (c'est-à-dire la plupart d'entre eux), mais les Religieuses du Sacré-Cœur de Marie, qui sont à l'origine de la résolution, ont déclaré dans un communiqué que « la question morale est primordiale ».
Sources : Microsoft, ICCR, Religieuses du Sacré-Cœur de Marie
Et vous ?







Vous avez lu gratuitement 49 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.