
quand l’aide optionnelle au codage se transforme en prison numérique
Depuis plusieurs mois, un malaise grandit chez les utilisateurs de GitHub. Ce qui devait être une révolution de productivité (l’assistant Copilot, propulsé par l’intelligence artificielle) se transforme pour beaucoup en cauchemar imposé. Là où l’outil était présenté comme une option, il devient désormais un élément quasi indissociable de l’expérience GitHub et Visual Studio Code, intégré par défaut, difficile à désactiver et omniprésent jusque dans les suggestions d’issues ou de pull requests. Ce glissement d’un service facultatif vers une imposition systématique nourrit une impression d’intrusion, voire de manipulation. Pour nombre de développeurs, GitHub ne respecte plus leur autonomie et leur liberté de choix, deux valeurs pourtant fondatrices de la culture open source.
Microsoft et GitHub, sans parler de leurs concurrents comme Google, ont misé tout leur argent sur une technologie dont une partie de leurs clients ne veut tout simplement pas. Et avec des milliards de dollars de dépenses en capital à récupérer, ils rendent cette technologie difficile à éviter.
Lors de la présentation des résultats financiers de Microsoft le 30 juillet 2025, le PDG Satya Nadella a déclaré que GitHub Copilot continuait d'afficher une forte dynamique et avait atteint les 20 millions d'utilisateurs : « Le nombre de clients GitHub Copilot Enterprise a augmenté de 75 % d'un trimestre à l'autre, les entreprises adaptant Copilot à leurs propres bases de code », a déclaré Nadella, soulignant que l'adoption de l'IA avait accru l'utilisation de GitHub au cours de l'année écoulée.
Pourtant, parmi les développeurs de logiciels qui utilisent GitHub de Microsoft, la discussion communautaire la plus populaire au cours des 12 derniers mois a été une demande visant à empêcher Copilot, le service d'IA de l'entreprise, de générer des tickets (utilisés afin de tracer l'ensemble des tâches à réaliser et qui ont un résultat attendu clair) et des pull request dans les référentiels de code.
La deuxième discussion la plus populaire (la popularité étant mesurée en nombre de votes positifs) est un rapport de bogue qui cherche à corriger l'impossibilité pour les utilisateurs de désactiver les révisions de code Copilot.
Ces deux questions, la première ouverte en mai et la seconde il y a un mois, restent sans réponse, malgré une abondance de commentaires critiques à l'égard de l'IA générative et de Copilot.
L'auteur de la première, la développeuse Andi McClure, a publié une demande similaire sur le référentiel Visual Studio Code de Microsoft en janvier, s'opposant à la réapparition d'une icône Copilot dans VS Code après avoir désinstallé l'extension Copilot.
Le syndrome de l’option impossible à désactiver
La critique récurrente qui revient dans les témoignages est celle du « faux choix ». Un utilisateur peut bien cliquer sur « désactiver Copilot », mais l’IA réapparaît sous une autre forme, un autre nom ou via une nouvelle mise à jour. On a déjà observé ce mécanisme dans d’autres produits Microsoft : assistants vocaux, outils de recherche ou extensions logicielles qui renaissent à intervalles réguliers, malgré les désactivations successives des utilisateurs.
Pour beaucoup, cette pratique s’apparente à une stratégie d’usure : fatiguer les utilisateurs jusqu’à ce qu’ils cessent de lutter et acceptent l’IA comme partie intégrante de l’environnement. Le sentiment d’être piégé par sa propre plateforme s’installe, renforçant la défiance.
« Microsoft est une entreprise qui a tendance à ne pas accepter le refus, qu'il s'agisse de l'IA ou de tout autre produit qu'elle souhaite commercialiser », a déclaré McClure. « L'une de leurs tactiques favorites ces derniers temps consiste à activer une fonctionnalité par défaut et à ajouter un bouton pour la désactiver, à attendre six mois, puis à modifier légèrement ou à renommer la fonctionnalité que vous avez désactivée, et à créer un nouveau bouton que vous devez désactiver séparément. Ils l'ont fait avec Bing dans Windows 10 et ils le font maintenant avec Copilot dans leurs outils de développement (et probablement dans Windows 11, je ne sais pas, je n'utilise pas Windows 11). »
McClure a déclaré que lorsque Microsoft a commencé à ajouter Copilot à tous ses produits, à commencer par le clavier Android SwiftKey, elle en a conclu que la situation allait reproduire celle de Bing/Cortana dans Windows 10 et que le désactiver ne suffirait pas.
Des développeurs en rébellion
La conséquence logique de cette frustration est une contestation ouverte. Dans les discussions en ligne et les forums de développeurs, des voix de plus en plus nombreuses expriment leur volonté de quitter GitHub. Certains annoncent déjà la migration de leurs dépôts vers des alternatives comme GitLab ou Codeberg, jugées plus respectueuses de la liberté des projets.
« Aujourd'hui, j'ai rejeté deux suggestions de code générées par Copilot sur ma PR », a écrit un développeur qui a posté sur le fil de discussion de McClure sous le nom de Constantine. « Cela m'a beaucoup dérangé, alors j'ai fait une recherche sur Google et j'ai trouvé cette discussion. Je refuse d'utiliser l'IA de la même manière que je refuse de prendre des drogues ou de voler des objets : pour moi, c'est une question de principe. Donc, si cela continue et que Microsoft ne propose pas rapidement un moyen de désactiver l'IA pour mes référentiels, je transférerai mon code vers une solution auto-hébergée et je ne reviendrai jamais sur GitHub. »
McClure a déclaré qu'elle s'était progressivement tournée vers Codeberg au cours des derniers mois. « Je n'ai pas transféré mes référentiels de manière proactive, mais chaque fois que j'apporte une modification à un référentiel, je le clone sur Codeberg, j'y publie la modification et je remplace ma branche principale sur le référentiel GitHub par un avis de transfert », a-t-elle déclaré.
D’autres, sans aller jusqu’au départ, réclament des options claires et permanentes pour désactiver Copilot, en particulier dans les espaces collaboratifs où les suggestions automatiques de l’IA peuvent parasiter les échanges, créer du bruit ou déstabiliser les workflows établis. Cette revendication simple — pouvoir choisir d’utiliser ou non l’IA — se heurte au silence de GitHub, qui préfère avancer sans reculer.
Le spectre de l’appropriation du code open source
La contestation ne porte pas seulement sur l’imposition technique, mais aussi sur un fond juridique et éthique. Copilot a été entraîné sur des milliards de lignes de code issues de dépôts publics, sans que les auteurs originaux aient donné leur consentement explicite. Certains projets se retrouvent reproduits partiellement dans les suggestions de Copilot, parfois sans attribution, parfois même en contradiction avec les licences d’origine.
« Cela fait déjà un certain temps que je signale des problèmes dans la section dédiée aux commentaires de la communauté GitHub lorsque Copilot interfère avec mon utilisation de GitHub », a déclaré McClure. « Je suis profondément indigné que, en plus de Copilot qui semble s'entraîner sur mon code publié sur GitHub en violation de mes licences, GitHub veuille que je regarde (en fait) des publicités pour ce projet auquel je ne toucherai jamais. Si quelque chose me dérange, je ne vois pas pourquoi je devrais me taire. Je pense qu'une partie de la raison pour laquelle nous sommes poussés vers des choses que nous ne voulons pas collectivement, c'est parce que nous restons silencieux à ce sujet. »
Cette situation soulève une question cruciale : où s’arrête l’assistance intelligente et où commence la violation de droits d’auteur ? Pour les mainteneurs de projets open source, qui consacrent bénévolement des milliers d’heures à produire et maintenir du code, voir leurs contributions absorbées dans une machine à générer du profit pour Microsoft est vécu comme une trahison.
L’open source en première ligne
Ce qui rend la situation explosive, c’est que GitHub s’est construit sur l’open source, une culture où le partage, la transparence et le volontariat sont centraux. Or, Copilot repose sur un entraînement massif sur ces dépôts open source, sans que leurs auteurs aient été consultés ou rémunérés.
Microsoft capitalise ainsi sur le travail gratuit d’une communauté mondiale pour bâtir un produit commercial vendu à prix fort. Pour les développeurs, le message est clair : leurs contributions alimentent une machine qui ne leur rend rien, sinon l’obligation d’utiliser une IA dont ils ne veulent pas. Cette captation de valeur illustre le modèle extractif des grandes plateformes : absorber la production collective, la transformer en produit propriétaire, et la revendre à la même communauté.
Le gouvernement britannique ne constate aucun gain de productivité notable avec Microsoft 365 Copilot
Le ministère britannique des Affaires et du Commerce a procédé à un essai du logiciel Microsoft 365 Copilot sur une période de trois mois (d'octobre à décembre 2024), distribuant 1 000 licences principalement à des volontaires, dont 30 % de participants sélectionnés au hasard. Selon un récent rapport publié par le ministère, environ 300 participants ont accepté que leurs données soient analysées, ce qui a permis d'évaluer l'impact de l'outil sur l'efficacité du travail, la qualité des résultats et la satisfaction des utilisateurs. Et les résultats sont très peu concluants.
Dans l'ensemble, 72 % des utilisateurs se sont déclarés satisfaits ou très satisfaits de leur assistant numérique et ont exprimé leur déception à la fin du test. Cependant, les gains de productivité réels étaient beaucoup plus nuancés que ne le suggéraient les supports promotionnels de Microsoft.
Environ deux tiers des employés participant à l'essai ont utilisé Microsoft 365 au moins une fois par semaine, et 30 % l'ont utilisé au moins une fois par jour, ce qui ne semble pas très rentable. Au Royaume-Uni, les prix facturés par Microsoft aux utilisateurs commerciaux varient entre 4,90 livres et 18,10 livres par utilisateur et par mois, selon le plan commercial. Cela signifie que dans un ministère, ces dépenses pourraient rapidement s'accumuler.
L'essai n'a pas permis de mettre en évidence une amélioration significative de la productivité, malgré des résultats prometteurs pour certaines tâches spécifiques. Microsoft a travaillé avec ses clients pour quantifier les avantages et justifier le coût plus élevé d'une licence pour M365 Copilot.
« Nous n'avons pas trouvé de preuves solides suggérant que le gain de temps entraîne une amélioration de la productivité. Mais cela n'était pas un objectif clé de l'évaluation et, par conséquent, peu de données ont été collectées pour déterminer si le gain de temps a entraîné des gains de productivité », indique le rapport.
Quant aux hallucinations, 22 % des utilisateurs qui ont répondu aux évaluateurs ont déclaré avoir identifié des hallucinations, 43 % ont déclaré ne pas en avoir identifié et 11 % étaient incertains.
Les capacités de Copilot n'ont pas convaincu les fonctionnaires australiens
Le ministère australien du Trésor a mené une expérience visant à mesurer les gains de productivité que Microsoft 365 Copilot peut apporter aux employés. L'expérience a été menée en 2024 et a vu la participation de 218 employés du ministère australien du Trésor. Pendant quatorze semaines, les participants à l'étude ont été invités à utiliser Copilot et ont parallèlement répondu à des enquêtes concernant leur expérience quant à l'utilisation de l'assistant d'IA.
Ces enquêtes constituent la base d'un rapport d'évaluation publié le 11 février 2025 par le Centre australien d'évaluation (ACE). Les conclusions du rapport font écho à des études antérieures selon lesquelles les assistants d'IA tels que Copilot et ChatGPT ne sont pas utiles dans les tâches complexes.
L'étude a révélé que les fonctionnaires ont utilisé Copilot moins que prévu et que leurs attentes quant à son utilité n'ont pas été satisfaites. Selon le rapport, bien que son utilisation s'est avérée utile pour des tâches de base, globalement, l'assistant d'IA de Microsoft n'a pas répondu aux attentes des fonctionnaires. Et environ 20 % des participants ont utilisé Copilot jusqu'à cinq fois par semaine, tandis que la majorité l'a utilisé trois fois ou moins par semaine.
Selon le rapport, les attentes initiales élevées pourraient expliquer la désillusion des employés. « Des attentes irréalistes au début de l'essai peuvent avoir contribué au problème, car certains membres du personnel ont été découragés par les performances du produit et ont renoncé à l'utiliser », indique le rapport.
Par exemple, avant l'essai, les trois quarts des participants ont déclaré qu'ils s'attendaient à ce que Copilot les aide à accomplir certaines tâches, alors que seulement 38 % d'entre eux ont déclaré que cela s'était produit pendant l'essai. Selon les critiques toutefois, Copilot n'est tout simplement pas à la hauteur.
Par ailleurs, 15 % des participants ont déclaré qu'ils pensaient que Copilot les aiderait à accomplir la plupart des tâches, alors que seulement 2 % d'entre eux l'ont affirmé par la suite. L'opinion des fonctionnaires du Trésor australien sur la capacité de Copilot à améliorer leur travail a également baissé.
Conclusion : un choix de société plus qu’un choix technique
Le conflit autour de Copilot n’est pas seulement une querelle de développeurs grincheux contre une nouvelle fonctionnalité. Il révèle un dilemme plus large : quelle place voulons-nous donner à l’intelligence artificielle dans les environnements de travail, et surtout, avec quel degré de consentement ?
Imposer l’IA par défaut, c’est nier la capacité de décision des utilisateurs. Et si GitHub ne rééquilibre pas son approche, en offrant une transparence totale et un contrôle effectif à sa communauté, le risque est grand de voir cette rébellion se transformer en exode numérique.
Au fond, la question n’est pas de savoir si Copilot est utile ou non. Elle est de savoir si la confiance des développeurs peut survivre à une logique d’imposition systématique. Et sans cette confiance, c’est peut-être GitHub lui-même qui finira par perdre son rôle central dans l’écosystème du logiciel libre.
Sources : GitHub (1, 2, 3, 4), Software Freedom Conservancy
Et vous ?





Vous avez lu gratuitement 1 094 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.