
Microsoft et GitHub, sans parler de leurs concurrents comme Google, ont misé tout leur argent sur une technologie dont une partie de leurs clients ne veut tout simplement pas. Et avec des milliards de dollars de dépenses en capital à récupérer, ils rendent cette technologie difficile à éviter.
Lors de la présentation des résultats financiers de Microsoft le 30 juillet 2025, le PDG Satya Nadella a déclaré que GitHub Copilot continuait d'afficher une forte dynamique et avait atteint les 20 millions d'utilisateurs : « Le nombre de clients GitHub Copilot Enterprise a augmenté de 75 % d'un trimestre à l'autre, les entreprises adaptant Copilot à leurs propres bases de code », a déclaré Nadella, soulignant que l'adoption de l'IA avait accru l'utilisation de GitHub au cours de l'année écoulée.
Pourtant, parmi les développeurs de logiciels qui utilisent GitHub de Microsoft, la discussion communautaire la plus populaire au cours des 12 derniers mois a été une demande visant à empêcher Copilot, le service d'IA de l'entreprise, de générer des tickets (utilisés afin de tracer l'ensemble des tâches à réaliser et qui ont un résultat attendu clair) et des pull request dans les référentiels de code.
La deuxième discussion la plus populaire (la popularité étant mesurée en nombre de votes positifs) est un rapport de bogue qui cherche à corriger l'impossibilité pour les utilisateurs de désactiver les révisions de code Copilot.
Ces deux questions, la première ouverte en mai et la seconde il y a un mois, restent sans réponse, malgré une abondance de commentaires critiques à l'égard de l'IA générative et de Copilot.
L'auteur de la première, la développeuse Andi McClure, a publié une demande similaire sur le référentiel Visual Studio Code de Microsoft en janvier, s'opposant à la réapparition d'une icône Copilot dans VS Code après avoir désinstallé l'extension Copilot.
Le syndrome de l’option impossible à désactiver
La critique récurrente qui revient dans les témoignages est celle du « faux choix ». Un utilisateur peut bien cliquer sur « désactiver Copilot », mais l’IA réapparaît sous une autre forme, un autre nom ou via une nouvelle mise à jour. On a déjà observé ce mécanisme dans d’autres produits Microsoft : assistants vocaux, outils de recherche ou extensions logicielles qui renaissent à intervalles réguliers, malgré les désactivations successives des utilisateurs.
Pour beaucoup, cette pratique s’apparente à une stratégie d’usure : fatiguer les utilisateurs jusqu’à ce qu’ils cessent de lutter et acceptent l’IA comme partie intégrante de l’environnement. Le sentiment d’être piégé par sa propre plateforme s’installe, renforçant la défiance.
« Microsoft est une entreprise qui a tendance à ne pas accepter le refus, qu'il s'agisse de l'IA ou de tout autre produit qu'elle souhaite commercialiser », a déclaré McClure. « L'une de leurs tactiques favorites ces derniers temps consiste à activer une fonctionnalité par défaut et à ajouter un bouton pour la désactiver, à attendre six mois, puis à modifier légèrement ou à renommer la fonctionnalité que vous avez désactivée, et à créer un nouveau bouton que vous devez désactiver séparément. Ils l'ont fait avec Bing dans Windows 10 et ils le font maintenant avec Copilot dans leurs outils de développement (et probablement dans Windows 11, je ne sais pas, je n'utilise pas Windows 11). »
McClure a déclaré que lorsque Microsoft a commencé à ajouter Copilot à tous ses produits, à commencer par le clavier Android SwiftKey, elle en a conclu que la situation allait reproduire celle de Bing/Cortana dans Windows 10 et que le désactiver ne suffirait pas.
Des développeurs en rébellion
La conséquence logique de cette frustration est une contestation ouverte. Dans les discussions en ligne et les forums de développeurs, des voix de plus en plus nombreuses expriment leur volonté de quitter GitHub. Certains annoncent déjà la migration de leurs dépôts vers des alternatives comme GitLab ou Codeberg, jugées plus respectueuses de la liberté des projets.
« Aujourd'hui, j'ai rejeté deux suggestions de code générées par Copilot sur ma PR », a écrit un développeur qui a posté sur le fil de discussion de McClure sous le nom de Constantine. « Cela m'a beaucoup dérangé, alors j'ai fait une recherche sur Google et j'ai trouvé cette discussion. Je refuse d'utiliser l'IA de la même manière que je refuse de prendre des drogues ou de voler des objets : pour moi, c'est une question de principe. Donc, si cela continue et que Microsoft ne propose pas rapidement un moyen de désactiver l'IA pour mes référentiels, je transférerai mon code vers une solution auto-hébergée et je ne reviendrai jamais sur GitHub. »
McClure a déclaré qu'elle s'était progressivement tournée vers Codeberg au cours des derniers mois. « Je n'ai pas transféré mes référentiels de manière proactive, mais chaque fois que j'apporte une modification à un référentiel, je le clone sur Codeberg, j'y publie la modification et je remplace ma branche principale sur le référentiel GitHub par un avis de transfert », a-t-elle déclaré.
D’autres, sans aller jusqu’au départ, réclament des options claires et permanentes pour désactiver Copilot, en particulier dans les espaces collaboratifs où les suggestions automatiques de l’IA peuvent parasiter les échanges, créer du bruit ou déstabiliser les workflows établis. Cette revendication simple — pouvoir choisir d’utiliser ou non l’IA — se heurte au silence de GitHub, qui préfère avancer sans reculer.
Le spectre de l’appropriation du code open source
La contestation ne porte pas seulement sur l’imposition technique, mais aussi sur un fond juridique et éthique. Copilot a été entraîné sur des milliards de lignes de code issues de dépôts publics, sans que les auteurs originaux aient donné leur consentement explicite. Certains projets se retrouvent reproduits partiellement dans les suggestions de Copilot, parfois sans attribution, parfois même en contradiction avec les licences d’origine.
« Cela fait déjà un certain temps que je signale des problèmes dans la section dédiée aux commentaires de la communauté GitHub lorsque Copilot interfère avec mon utilisation de GitHub », a déclaré McClure. « Je suis profondément indigné que, en plus de Copilot qui semble s'entraîner sur mon code publié sur GitHub en violation de mes licences, GitHub veuille que je regarde (en fait) des publicités pour ce projet auquel je ne toucherai jamais. Si quelque chose me dérange, je ne vois pas pourquoi je devrais me taire. Je pense qu'une partie de la raison pour laquelle nous sommes poussés vers des choses que nous ne voulons pas collectivement, c'est parce que nous restons silencieux à ce sujet. »
Cette situation soulève une question cruciale : où s’arrête l’assistance intelligente et où commence la violation de droits d’auteur ? Pour les mainteneurs de projets open source, qui consacrent bénévolement des milliers d’heures à produire et maintenir du code, voir leurs contributions absorbées dans une machine à générer du profit pour Microsoft est vécu comme une trahison.
L’open source en première ligne
Ce qui rend la situation explosive, c’est que GitHub s’est construit sur l’open source, une culture où le partage, la transparence et le volontariat sont centraux. Or, Copilot repose sur un entraînement massif sur ces dépôts open source, sans que leurs auteurs aient été consultés ou rémunérés.
Microsoft capitalise ainsi sur le travail gratuit d’une communauté mondiale pour bâtir un produit commercial vendu à prix fort. Pour les développeurs, le message est clair : leurs contributions alimentent une machine qui ne leur rend rien, sinon l’obligation d’utiliser une IA dont ils ne veulent pas. Cette captation de valeur illustre le modèle extractif des grandes plateformes : absorber la production collective, la transformer en produit propriétaire, et la revendre à la même communauté.
Le gouvernement britannique ne constate aucun gain de productivité notable avec Microsoft 365 Copilot
Le ministère britannique des Affaires et du Commerce a procédé à un essai du logiciel Microsoft 365 Copilot sur une période de trois mois (d'octobre à décembre 2024), distribuant 1 000 licences principalement à des volontaires, dont 30 % de participants sélectionnés au hasard. Selon un récent rapport publié par le ministère, environ 300 participants ont accepté que leurs données soient analysées, ce qui a permis d'évaluer l'impact de l'outil sur l'efficacité du travail, la qualité des résultats et la satisfaction des utilisateurs. Et les résultats sont très peu concluants.
Dans l'ensemble, 72 % des utilisateurs se sont déclarés satisfaits ou très satisfaits de leur assistant numérique et ont exprimé leur déception à la fin du test. Cependant, les gains de productivité réels étaient beaucoup plus nuancés que ne le suggéraient les supports promotionnels de Microsoft.
Environ deux tiers des employés participant à l'essai ont utilisé Microsoft 365 au moins une fois par semaine, et 30 % l'ont utilisé au moins une fois par jour, ce qui ne semble pas très rentable. Au Royaume-Uni, les prix facturés par Microsoft aux utilisateurs commerciaux varient entre 4,90 livres et 18,10 livres par utilisateur et par mois, selon le plan commercial. Cela signifie que dans un ministère, ces dépenses pourraient rapidement s'accumuler.
L'essai n'a pas permis de mettre en évidence une amélioration significative de la productivité, malgré des résultats prometteurs pour certaines tâches spécifiques. Microsoft a travaillé avec ses clients pour quantifier les avantages et justifier le coût plus élevé d'une licence pour M365 Copilot.
« Nous n'avons pas trouvé de preuves solides suggérant que le gain de temps entraîne une amélioration de la productivité. Mais cela n'était pas un objectif clé de l'évaluation et, par conséquent, peu de données ont été collectées pour déterminer si le gain de temps a entraîné des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.