IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GitHub sous tension : certains utilisateurs mécontents se rebellent contre les fonctionnalités IA Copilot imposées
Quand l'aide optionnelle au codage se transforme en prison numérique

Le , par Stéphane le calme

12PARTAGES

5  0 
GitHub sous tension : certains utilisateurs mécontents se rebellent contre les fonctionnalités IA Copilot imposées,
quand l’aide optionnelle au codage se transforme en prison numérique

Depuis plusieurs mois, un malaise grandit chez les utilisateurs de GitHub. Ce qui devait être une révolution de productivité (l’assistant Copilot, propulsé par l’intelligence artificielle) se transforme pour beaucoup en cauchemar imposé. Là où l’outil était présenté comme une option, il devient désormais un élément quasi indissociable de l’expérience GitHub et Visual Studio Code, intégré par défaut, difficile à désactiver et omniprésent jusque dans les suggestions d’issues ou de pull requests. Ce glissement d’un service facultatif vers une imposition systématique nourrit une impression d’intrusion, voire de manipulation. Pour nombre de développeurs, GitHub ne respecte plus leur autonomie et leur liberté de choix, deux valeurs pourtant fondatrices de la culture open source.

Microsoft et GitHub, sans parler de leurs concurrents comme Google, ont misé tout leur argent sur une technologie dont une partie de leurs clients ne veut tout simplement pas. Et avec des milliards de dollars de dépenses en capital à récupérer, ils rendent cette technologie difficile à éviter.

Lors de la présentation des résultats financiers de Microsoft le 30 juillet 2025, le PDG Satya Nadella a déclaré que GitHub Copilot continuait d'afficher une forte dynamique et avait atteint les 20 millions d'utilisateurs : « Le nombre de clients GitHub Copilot Enterprise a augmenté de 75 % d'un trimestre à l'autre, les entreprises adaptant Copilot à leurs propres bases de code », a déclaré Nadella, soulignant que l'adoption de l'IA avait accru l'utilisation de GitHub au cours de l'année écoulée.

Pourtant, parmi les développeurs de logiciels qui utilisent GitHub de Microsoft, la discussion communautaire la plus populaire au cours des 12 derniers mois a été une demande visant à empêcher Copilot, le service d'IA de l'entreprise, de générer des tickets (utilisés afin de tracer l'ensemble des tâches à réaliser et qui ont un résultat attendu clair) et des pull request dans les référentiels de code.

La deuxième discussion la plus populaire (la popularité étant mesurée en nombre de votes positifs) est un rapport de bogue qui cherche à corriger l'impossibilité pour les utilisateurs de désactiver les révisions de code Copilot.

Ces deux questions, la première ouverte en mai et la seconde il y a un mois, restent sans réponse, malgré une abondance de commentaires critiques à l'égard de l'IA générative et de Copilot.

L'auteur de la première, la développeuse Andi McClure, a publié une demande similaire sur le référentiel Visual Studio Code de Microsoft en janvier, s'opposant à la réapparition d'une icône Copilot dans VS Code après avoir désinstallé l'extension Copilot.


Le syndrome de l’option impossible à désactiver

La critique récurrente qui revient dans les témoignages est celle du « faux choix ». Un utilisateur peut bien cliquer sur « désactiver Copilot », mais l’IA réapparaît sous une autre forme, un autre nom ou via une nouvelle mise à jour. On a déjà observé ce mécanisme dans d’autres produits Microsoft : assistants vocaux, outils de recherche ou extensions logicielles qui renaissent à intervalles réguliers, malgré les désactivations successives des utilisateurs.

Pour beaucoup, cette pratique s’apparente à une stratégie d’usure : fatiguer les utilisateurs jusqu’à ce qu’ils cessent de lutter et acceptent l’IA comme partie intégrante de l’environnement. Le sentiment d’être piégé par sa propre plateforme s’installe, renforçant la défiance.

« Microsoft est une entreprise qui a tendance à ne pas accepter le refus, qu'il s'agisse de l'IA ou de tout autre produit qu'elle souhaite commercialiser », a déclaré McClure. « L'une de leurs tactiques favorites ces derniers temps consiste à activer une fonctionnalité par défaut et à ajouter un bouton pour la désactiver, à attendre six mois, puis à modifier légèrement ou à renommer la fonctionnalité que vous avez désactivée, et à créer un nouveau bouton que vous devez désactiver séparément. Ils l'ont fait avec Bing dans Windows 10 et ils le font maintenant avec Copilot dans leurs outils de développement (et probablement dans Windows 11, je ne sais pas, je n'utilise pas Windows 11). »

McClure a déclaré que lorsque Microsoft a commencé à ajouter Copilot à tous ses produits, à commencer par le clavier Android SwiftKey, elle en a conclu que la situation allait reproduire celle de Bing/Cortana dans Windows 10 et que le désactiver ne suffirait pas.

Des développeurs en rébellion

La conséquence logique de cette frustration est une contestation ouverte. Dans les discussions en ligne et les forums de développeurs, des voix de plus en plus nombreuses expriment leur volonté de quitter GitHub. Certains annoncent déjà la migration de leurs dépôts vers des alternatives comme GitLab ou Codeberg, jugées plus respectueuses de la liberté des projets.

« Aujourd'hui, j'ai rejeté deux suggestions de code générées par Copilot sur ma PR », a écrit un développeur qui a posté sur le fil de discussion de McClure sous le nom de Constantine. « Cela m'a beaucoup dérangé, alors j'ai fait une recherche sur Google et j'ai trouvé cette discussion. Je refuse d'utiliser l'IA de la même manière que je refuse de prendre des drogues ou de voler des objets : pour moi, c'est une question de principe. Donc, si cela continue et que Microsoft ne propose pas rapidement un moyen de désactiver l'IA pour mes référentiels, je transférerai mon code vers une solution auto-hébergée et je ne reviendrai jamais sur GitHub. »

McClure a déclaré qu'elle s'était progressivement tournée vers Codeberg au cours des derniers mois. « Je n'ai pas transféré mes référentiels de manière proactive, mais chaque fois que j'apporte une modification à un référentiel, je le clone sur Codeberg, j'y publie la modification et je remplace ma branche principale sur le référentiel GitHub par un avis de transfert », a-t-elle déclaré.

D’autres, sans aller jusqu’au départ, réclament des options claires et permanentes pour désactiver Copilot, en particulier dans les espaces collaboratifs où les suggestions automatiques de l’IA peuvent parasiter les échanges, créer du bruit ou déstabiliser les workflows établis. Cette revendication simple — pouvoir choisir d’utiliser ou non l’IA — se heurte au silence de GitHub, qui préfère avancer sans reculer.

Le spectre de l’appropriation du code open source

La contestation ne porte pas seulement sur l’imposition technique, mais aussi sur un fond juridique et éthique. Copilot a été entraîné sur des milliards de lignes de code issues de dépôts publics, sans que les auteurs originaux aient donné leur consentement explicite. Certains projets se retrouvent reproduits partiellement dans les suggestions de Copilot, parfois sans attribution, parfois même en contradiction avec les licences d’origine.

« Cela fait déjà un certain temps que je signale des problèmes dans la section dédiée aux commentaires de la communauté GitHub lorsque Copilot interfère avec mon utilisation de GitHub », a déclaré McClure. « Je suis profondément indigné que, en plus de Copilot qui semble s'entraîner sur mon code publié sur GitHub en violation de mes licences, GitHub veuille que je regarde (en fait) des publicités pour ce projet auquel je ne toucherai jamais. Si quelque chose me dérange, je ne vois pas pourquoi je devrais me taire. Je pense qu'une partie de la raison pour laquelle nous sommes poussés vers des choses que nous ne voulons pas collectivement, c'est parce que nous restons silencieux à ce sujet. »

Cette situation soulève une question cruciale : où s’arrête l’assistance intelligente et où commence la violation de droits d’auteur ? Pour les mainteneurs de projets open source, qui consacrent bénévolement des milliers d’heures à produire et maintenir du code, voir leurs contributions absorbées dans une machine à générer du profit pour Microsoft est vécu comme une trahison.

L’open source en première ligne

Ce qui rend la situation explosive, c’est que GitHub s’est construit sur l’open source, une culture où le partage, la transparence et le volontariat sont centraux. Or, Copilot repose sur un entraînement massif sur ces dépôts open source, sans que leurs auteurs aient été consultés ou rémunérés.

Microsoft capitalise ainsi sur le travail gratuit d’une communauté mondiale pour bâtir un produit commercial vendu à prix fort. Pour les développeurs, le message est clair : leurs contributions alimentent une machine qui ne leur rend rien, sinon l’obligation d’utiliser une IA dont ils ne veulent pas. Cette captation de valeur illustre le modèle extractif des grandes plateformes : absorber la production collective, la transformer en produit propriétaire, et la revendre à la même communauté.

Le gouvernement britannique ne constate aucun gain de productivité notable avec Microsoft 365 Copilot

Le ministère britannique des Affaires et du Commerce a procédé à un essai du logiciel Microsoft 365 Copilot sur une période de trois mois (d'octobre à décembre 2024), distribuant 1 000 licences principalement à des volontaires, dont 30 % de participants sélectionnés au hasard. Selon un récent rapport publié par le ministère, environ 300 participants ont accepté que leurs données soient analysées, ce qui a permis d'évaluer l'impact de l'outil sur l'efficacité du travail, la qualité des résultats et la satisfaction des utilisateurs. Et les résultats sont très peu concluants.

Dans l'ensemble, 72 % des utilisateurs se sont déclarés satisfaits ou très satisfaits de leur assistant numérique et ont exprimé leur déception à la fin du test. Cependant, les gains de productivité réels étaient beaucoup plus nuancés que ne le suggéraient les supports promotionnels de Microsoft.

Environ deux tiers des employés participant à l'essai ont utilisé Microsoft 365 au moins une fois par semaine, et 30 % l'ont utilisé au moins une fois par jour, ce qui ne semble pas très rentable. Au Royaume-Uni, les prix facturés par Microsoft aux utilisateurs commerciaux varient entre 4,90 livres et 18,10 livres par utilisateur et par mois, selon le plan commercial. Cela signifie que dans un ministère, ces dépenses pourraient rapidement s'accumuler.

L'essai n'a pas permis de mettre en évidence une amélioration significative de la productivité, malgré des résultats prometteurs pour certaines tâches spécifiques. Microsoft a travaillé avec ses clients pour quantifier les avantages et justifier le coût plus élevé d'une licence pour M365 Copilot.

« Nous n'avons pas trouvé de preuves solides suggérant que le gain de temps entraîne une amélioration de la productivité. Mais cela n'était pas un objectif clé de l'évaluation et, par conséquent, peu de données ont été collectées pour déterminer si le gain de temps a entraîné des gains de productivité », indique le rapport.

Quant aux hallucinations, 22 % des utilisateurs qui ont répondu aux évaluateurs ont déclaré avoir identifié des hallucinations, 43 % ont déclaré ne pas en avoir identifié et 11 % étaient incertains.


Les capacités de Copilot n'ont pas convaincu les fonctionnaires australiens

Le ministère australien du Trésor a mené une expérience visant à mesurer les gains de productivité que Microsoft 365 Copilot peut apporter aux employés. L'expérience a été menée en 2024 et a vu la participation de 218 employés du ministère australien du Trésor. Pendant quatorze semaines, les participants à l'étude ont été invités à utiliser Copilot et ont parallèlement répondu à des enquêtes concernant leur expérience quant à l'utilisation de l'assistant d'IA.

Ces enquêtes constituent la base d'un rapport d'évaluation publié le 11 février 2025 par le Centre australien d'évaluation (ACE). Les conclusions du rapport font écho à des études antérieures selon lesquelles les assistants d'IA tels que Copilot et ChatGPT ne sont pas utiles dans les tâches complexes.

L'étude a révélé que les fonctionnaires ont utilisé Copilot moins que prévu et que leurs attentes quant à son utilité n'ont pas été satisfaites. Selon le rapport, bien que son utilisation s'est avérée utile pour des tâches de base, globalement, l'assistant d'IA de Microsoft n'a pas répondu aux attentes des fonctionnaires. Et environ 20 % des participants ont utilisé Copilot jusqu'à cinq fois par semaine, tandis que la majorité l'a utilisé trois fois ou moins par semaine.

Selon le rapport, les attentes initiales élevées pourraient expliquer la désillusion des employés. « Des attentes irréalistes au début de l'essai peuvent avoir contribué au problème, car certains membres du personnel ont été découragés par les performances du produit et ont renoncé à l'utiliser », indique le rapport.

Par exemple, avant l'essai, les trois quarts des participants ont déclaré qu'ils s'attendaient à ce que Copilot les aide à accomplir certaines tâches, alors que seulement 38 % d'entre eux ont déclaré que cela s'était produit pendant l'essai. Selon les critiques toutefois, Copilot n'est tout simplement pas à la hauteur.

Par ailleurs, 15 % des participants ont déclaré qu'ils pensaient que Copilot les aiderait à accomplir la plupart des tâches, alors que seulement 2 % d'entre eux l'ont affirmé par la suite. L'opinion des fonctionnaires du Trésor australien sur la capacité de Copilot à améliorer leur travail a également baissé.

Conclusion : un choix de société plus qu’un choix technique

Le conflit autour de Copilot n’est pas seulement une querelle de développeurs grincheux contre une nouvelle fonctionnalité. Il révèle un dilemme plus large : quelle place voulons-nous donner à l’intelligence artificielle dans les environnements de travail, et surtout, avec quel degré de consentement ?

Imposer l’IA par défaut, c’est nier la capacité de décision des utilisateurs. Et si GitHub ne rééquilibre pas son approche, en offrant une transparence totale et un contrôle effectif à sa communauté, le risque est grand de voir cette rébellion se transformer en exode numérique.

Au fond, la question n’est pas de savoir si Copilot est utile ou non. Elle est de savoir si la confiance des développeurs peut survivre à une logique d’imposition systématique. Et sans cette confiance, c’est peut-être GitHub lui-même qui finira par perdre son rôle central dans l’écosystème du logiciel libre.

Sources : GitHub (1, 2, 3, 4), Software Freedom Conservancy

Et vous ?

Quelle lecture faites-vous de cette situation ? Avez-vous déjà été confrontés aux mêmes problèmes ?

Jusqu’où les géants du numérique peuvent-ils imposer l’IA sans briser la confiance des utilisateurs ?

L’entraînement des IA sur du code libre sans consentement explicite constitue-t-il une forme d’appropriation abusive ? Dans quelle mesure ?

L’IA générative doit-elle être intégrée par défaut ou rester une option strictement volontaire ?

La communauté open source peut-elle peser face aux impératifs économiques colossaux de Microsoft et consorts ?
Vous avez lu gratuitement 1 094 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eomer212
Membre confirmé https://www.developpez.com
Le 09/09/2025 à 20:32
que pensiez vous qu'il arriverait à github en passant sous les griffes de microsoft ?? c'est comme faire confiance à putin pour préserver la vie et la liberté.
microsoft est et reste une entreprise prédatrice, nuisible à l'ensemble de l'écosystème informatique.
elle ne fait que retarder et nuire au progrès et au développement de technologies librement utilisables par tous en dénaturant jusqu'aux RFC qu'elle traite systématiquement en les rendant incompréhensible et inutilisable pour le commun des mortels dans ses implementations, à moins de suivre un cours payant qui vous transforme en adepte d'une secte ou tous les mots et concepts sont dévoyés et retournés.
GitHub a vécu, il faut s'en rendre compte et prendre acte. d'autres moyens existent de ne pas se faire voler son code et de rester maitre de celui ci.
première action: jamais tu ne donnera ton code à ces rats de Microsoft. quand on voit qu'ils n'ont JAMAIS étés foutus de corriger même des bugs basiques, préférant laisser des trous béants pour la CIA et autres plutôt que de renforcer la sécurité et la stabilité de leur 'OS' (ca m'arrache la bouche quand je dis ca. c'est tellement improbable de mêler Microsoft et OS dans la même phrase..)
deuxième action. il y a d'autres alternatives, gratuites ou payantes. perso, j'aurais la préférence sur des payantes avec des tarifs réalistes.
quand tu paye, même juste un peu , le fournisseur a le devoir d'avoir des résultats et de s'engager sur ses pratiques.
tu peux aussi le poursuivre pour non respect du contrat.
une plate forme payante, européenne puis mondiale, , à prix honnête, (qui nous prends pas pour des américains débiles) serait la bienvenue.
la sécurité et la fiabilité, ca n'a pas de prix, sinon, c'est vous qui êtes le produit..
l'union européenne trouverait la toute sa justification en lançant et protégeant cet écosystème favorable aux sociétés et à l'apprentissage par l'échange.. et revitaliser l'equivalent d'un stack overflow serait pas mal aussi..
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 09/09/2025 à 22:32
Continuer à déposer son code chez un GitHub dont Microsoft a pris le contrôle, c'est quoi?

C'est tout simplement la même chose qu'un berger un peu con qui met son troupeau de moutons à l'abri dans une bergerie gérée par une meute de loups!

Le plus drôle est que Microsoft peut y faire son beurre pour développer ses IA en pompant toutes les données qui s'y trouvent sans avoir même à faire l'effort de remercier leurs auteurs...
0  0 
Avatar de axd13720bouille
Nouveau Candidat au Club https://www.developpez.com
Le 09/09/2025 à 22:36
oui
0  0