IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Congrès interdit au personnel d'utiliser Copilot, le chatbot IA de Microsoft, en raison des risques de fuites de données de la Chambre vers des services cloud qu'elle n'a pas approuvés

Le , par Stéphane le calme

19PARTAGES

5  0 
Le Congrès américain a imposé une interdiction stricte sur l’utilisation par les collaborateurs du chatbot IA de Microsoft, Copilot. Selon le Bureau du chef de l’administration de la Chambre, l’application Microsoft Copilot a été jugée risquée pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services cloud non approuvés. Cette décision fait suite à des préoccupations concernant la sécurité et la confidentialité des données.

La Chambre des représentants des États-Unis (en anglais : United States House of Representatives) compose, avec le Sénat, le Congrès des États-Unis et forme à ce titre l'un des deux organes du pouvoir législatif américain. Elle représente les citoyens au sein de l'Union et constitue la chambre basse du congrès fédéral.

« L'application Microsoft Copilot a été considérée par l'Office of Cybersecurity comme un risque pour les utilisateurs en raison de la menace de fuite des données de la Chambre vers des services cloud non approuvés par la Chambre », a déclaré Catherine Szpindor, directrice administrative de la Chambre.

La Chambre des représentants a fait état de préoccupations similaires lorsqu'elle a restreint l'utilisation de ChatGPT dans les bureaux du Congrès l'année dernière et a déclaré qu'aucun chatbot autre que ChatGPT n'était encore autorisé.

Pour mémoire, en avril, le House Digital Services (le service numérique de la Chambre des représentants des États-Unis) a créé un groupe de travail sur l'IA pour que le personnel teste et partage de nouveaux outils d'IA dans l'environnement de bureau du Congrès et maintenant le service numérique de la Chambre des représentants a obtenu 40 licences pour ChatGPT Plus.

Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi. Le House Digital Services devait payer le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus étaient alors anonymes.

« Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».

Il a expliqué que le chatbot ne pourrait pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.

Selon un e-mail interne du groupe de travail sur l'IA datant de cette période, l'outil d'IA devrait être utilisé pour de nombreuses tâches quotidiennes et responsabilités clefs au sein des bureaux du Congrès, telles que : générer des brouillons de réponses des électeurs et des documents de presse ; résumer de grandes quantités de texte dans les discours ; rédiger des documents d'orientation ou même des projets de loi ; créer de nouveaux logos ou éléments graphiques pour les ressources de bureau de marque et plus encore.


Microsoft prévoit des outils d'IA spécifiques aux gouvernements

En réponse à ces préoccupations en matière de sécurité, Microsoft a annoncé son intention de lancer cet été une série d'outils spécialement conçus pour une utilisation gouvernementale.

Ces outils sont destinés à répondre aux besoins du Congrès en matière de sécurité.

« Nous reconnaissons que les utilisateurs gouvernementaux ont des exigences plus élevées en matière de sécurité des données. C'est pourquoi nous avons annoncé une feuille de route d'outils Microsoft AI, comme Copilot, qui répondent aux exigences de sécurité et de conformité du gouvernement fédéral et que nous avons l'intention de livrer plus tard cette année », a déclaré un porte-parole de Microsoft.

Le bureau de Szpindor a précisé que sa directive de bannir Copilot ne s'appliquait qu'à sa version commerciale. La version gouvernementale sera évaluée une fois que Microsoft l'aura proposée et une décision sera prise en conséquence.

Copilot, basé sur la technologie du créateur de ChatGPT, OpenAI, est un assistant génératif d’intelligence artificielle. Microsoft a publié des versions gratuites et payantes du logiciel, ainsi que diverses options payantes pour les entreprises. Il fonctionne comme un chatbot autonome pour le Web et les appareils mobiles, et les versions payantes peuvent également fonctionner directement au sein des applications Office telles que Word, Excel, Outlook et PowerPoint.

Conclusion

La décision du Congrès reflète les préoccupations que de nombreuses entreprises ont rencontrées, avec de nombreuses entreprises bloquant l’accès aux chatbots grand public comme ChatGPT par crainte de fuites de données. De nombreuses entreprises optent pour des versions professionnelles qui garantissent que les données ne seront pas utilisées pour former des modèles futurs, mais cela ouvre également le risque de fuites de données.

Cette démarche s'inscrit dans le cadre d'une initiative plus large du gouvernement fédéral visant à réglementer son utilisation interne de la technologie de l'IA et à élaborer simultanément des règles pour ce secteur en pleine évolution.

Source : Congrès américain

Et vous ?

Pensez-vous que l’interdiction de Copilot est justifiée ? Pourquoi ou pourquoi pas ?
Quelles mesures supplémentaires devrait prendre le Congrès pour protéger les données sensibles ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/11/2024 à 12:23
Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!

Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/04/2024 à 17:22
Citation Envoyé par Stéphane le calme Voir le message
L’IA dans le cloud est-elle un moteur essentiel de l’innovation ou une menace pour la confidentialité des données ?
La deuxième, bien entendu. Les GAFAM se gavent de nos données, pour les exploiter et les revendre, mais quand il s'agit de les protéger, là, c'est une calamité.

Citation Envoyé par Stéphane le calme Voir le message
Quelles sont les implications de la course à l’IA entre les géants du cloud comme Microsoft et Amazon Web Services ?
L'écologie? Alors d'un côté les chargés de communication viennent régulièrement nous vendre de l'"emprunte carbone zéro", et de l'autre, les commerciaux survendent tellement leur IA qu'il leur faudrait encore plus de datacenters! Cherchez l'erreur
2  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 02/10/2024 à 14:11
Dépendance technologique

La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.
C'est le but premier , et rechercher, des GAFAM d'abêtir les masses pour mieux les manipuler et les rendre totalement dépendant de leurs services .
1  0 
Avatar de Minato Sensei
Membre habitué https://www.developpez.com
Le 02/10/2024 à 15:53
Citation Envoyé par _toma_ Voir le message
Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?
Une personne qui n'a pas d'amis, par exemple ? ça me rappelle que j'ai lu qu'un gars avait fait un réseau social de bots où tu peux choisir le ton que les bots vont employer pour répondre à tes messages... quand je pense que certains applaudissent cette énorme connerie. Déjà qu'il y a les Woke, on nous rajoute leurs cousins les bots
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/11/2024 à 11:23
C'est marrant de voir des entreprises qui paniquent parce que des employés ont accès à des données confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs données sur pleins de clouds qui ne leur appartiennent pas!

Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".

Citation Envoyé par Stéphane le calme Voir le message
La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?
Bien sûr que non.

Citation Envoyé par Stéphane le calme Voir le message
Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?
Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
Au mieux, une entreprise fera un procès qui lui coûtera affreusement cher pendant une dizaine d'années.

Citation Envoyé par Stéphane le calme Voir le message
Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?
Ni aujourd'hui ni demain.
Comment maîtriser ce qui est externe? (ces systèmes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
Si vous me confiez vos données, est-ce que vous en avez encore la maîtrise?

Citation Envoyé par Stéphane le calme Voir le message
Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?
Hmmm... La sécurité des données sensibles est-elle la priorité de Microsoft?
On peut sérieusement se poser la question quand on voit qu'ils poussent pour Recall, malgré les alertes de leurs propres ingénieurs sécurité...

Citation Envoyé par Stéphane le calme Voir le message
À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
Le problème ne vient pas de la "puissance" d'un outil mais de son intégration à tout un tas de systèmes et à la complexité engendrée.
Aucune chance que ça soit réaliste, donc.

EDIT:
Pour ce qui est du schéma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent protéger d'un attaquant.

Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.

C'est l'utilisateur lui-même qui va le faire, en cliquant sur ce qu'il considère être quelque chose de légitime. Le prompter pour du windows hello, de la biométrie, ou même ses informations hypothécaires s'il le faut n'y changera absolument rien: le programme exécuté aura les droits sur cette "secure enclave" et n'aura plus qu'à exfiltrer les données...

Bref, c'est juste pour donner un sentiment de sécurité sur une fonctionnalité qui n'est qu'un spyware déguisé.

Vive les GAFAM...
1  0 
Avatar de weed
Membre chevronné https://www.developpez.com
Le 27/04/2024 à 17:08
Citation Envoyé par Aiekick Voir le message
une ia qui pourrait nous fichier comme jamais. en analysant en details les données que nous avons et comment nous les utilisons. quelque chose me dit que la nsa ce frotte les mains. il ce pourrait que win10 soit mon dernier os windows..
Il n'y a pas que la NSA qui se frotte les mains, c'est surtout Microsoft qui va pouvoir dresser encore plus facilement des profiles de plus en plus précis. Et des informations précises valent bien cher et permettent de les revendre à des annonceurs sur une thématique bien précises, à des assurances pour tel profils, ...
Il est bien connu que les GAFAM sont aspirateurs de données, je ne pense ne rien inventé. Après tout dépend ton degré d'acceptation.

Comme tu le sais, cela ne va pas s'arranger, notamment avec Windows 12. Si cela t'ennuie, mieux que tu anticpes ton départ pour voir si l'herbe est plus verte ailleurs, en te faisant aider si besoin. Il n'est jamais bon procrastiner
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 12/08/2024 à 4:10
On pourrait tiré la même conclusion au sujet de GitHub.
0  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 11/09/2024 à 17:01
Citation Envoyé par Madmac Voir le message
On pourrait tiré la même conclusion au sujet de GitHub.
J'ai l'impression qu'un dépôt est plus facile à gérer/contrôler qu'un jeu de données pour un IA.
0  0 
Avatar de weed
Membre chevronné https://www.developpez.com
Le 02/10/2024 à 19:04
Sur le plan technique, c'est absolument impressionnant ce qu'il arrive à faire. Après il ne faut pas oublier que Microsoft 3 plus grandes capitalisation boursière, elle a énormément de ressource financière. Il est donc assez facile de recruter et de mettre des poles d'excellence. Et malheureusement la concurrence peut difficilement suivre.

Cette prouesse technique est assez incroyable, elle créé un véritable assistant pour nous aider sur plein de chose, dont on l'habitude de faire nous même. Par exemple, il s'occuperait de faire les comparatifs, ... Microsoft essaie de créer un nouveau besoin pour ensuite le rendre indispensable auprès des utilisateurs, au point de créer une certaine indépendance à son produit. Est ce que les gens vont aller jusque là ?

En terme de vie privée, peut importe ce qu'ils font. Je suis contre de mettre tous mes oeufs dans le même panier, de faire appel à un unique prestataire pour tout. Si on veut de la vie privée, il faut se pencher sur les IA locaux. Microsoft a tout intéret plein d'information sur nous pour entrainer son IA, sous le prextexe pour améliorer son expérience utilisateur.

Je n'adhère pas du tout mais je trouve qu'il est intéressant de comprendre la stratégie des GAFAM. Et celle de Microsoft, je la comprends. Microsoft dépensent des millions de $$ dans l'IA et donc essaie de trouver des nouveaux usages
0  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 02/10/2024 à 13:04
Hé bien, des démos techniques de plus en plus... Nazes ? Inutiles ? Débiles ? Je sais même plus quel mot choisir.
Depuis un bon moment j'ai l'impression que tous mes commentaires vont dans le même sens. Et encore, vous avez de la chance, 9 fois sur 10 je me retiens d'écrire vu que mon message est aussi inutile que la technologie présentée.

Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?
2  3