IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft prévoit de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA
Alors que la prochaine itération de Copilot intégrera des agents autonomes

Le , par Anthony

27PARTAGES

3  0 
Microsoft travaille sur une fonction Copilot à l'échelle de l'entreprise qui permettrait aux sociétés de créer leurs propres employés virtuels IA. En pratique, cela signifie que les entreprises pourraient créer leurs propres chatbots IA pour interagir avec les clients ou des employés internes pour gérer les tâches internes, en veillant à ce que le ton et le comportement de l'agent soient conformes aux directives et aux préférences de l'entreprise.

Ce projet intervient après que Microsoft ait lancé au début du mois d'octobre 2024 de nouvelles fonctionnalités Copilot sur Windows, y compris un outil qui permet à Microsoft Copilot de lire ce qui est affiché sur l'écran d'un utilisateur pour lui fournir des réponses contextuelles, de parler à haute voix et de résoudre des problèmes complexes.

Le projet, intitulé Microsoft Copilot Studio, est la prochaine étape de l'IA au travail. Une version bêta fermée a été lancée au début de l'année et une phase de test publique est prévue pour le mois de novembre 2024.


Les types de tâches que les employés IA, appelés agents par Microsoft, peuvent effectuer sont généralement des tâches administratives, telles que répondre aux demandes des clients via un chatbot, générer ou résoudre des tickets d'assistance informatique, et répondre à des courriels en utilisant des templates prédéfinis.

Le fait que Microsoft parle d'agents et d'« employés virtuels » joue sur les craintes existantes des gens à l'égard de l'IA, à savoir que l'IA pourrait voler des emplois humains. Le géant de la technologie s'est donc empressé de souligner que les agents Copilot ne peuvent qu'automatiser des tâches répétitives et souvent fastidieuses. L'idée est que cela libère du temps humain pour des rôles plus créatifs et à plus haute responsabilité.

Comment fonctionne Copilot Studio ?

Les entreprises n'ont pas besoin d'avoir des connaissances techniques approfondies pour travailler avec Copilot Studio, l'application utilisant un format low-code. L'interface, essentiellement graphique, requiert des connaissances limitées en matière de programmation et Microsoft fournit des agents prédéfinis que les clients peuvent utiliser pour créer leurs propres agents ou pour commencer à travailler immédiatement.


Parmi les agents prédéfinis, on retrouve un agent de qualification des ventes (axé sur la prospection des clients), un agent de communication avec les fournisseurs (destiné à optimiser les chaînes d'approvisionnement) et un agent d'intention des clients (qui aide les employés du service clientèle à rédiger des articles générés automatiquement). Cela donne une idée des utilisations prévues pour les entreprises qui mettent en œuvre Copilot Studio.

Microsoft n'a pas donné de calendrier précis pour la mise à disposition de Copilot Studio au grand public, mais les phases de test progressant, cela pourrait se faire dès l'année 2025.

Alors que Microsoft s’attelle à travers ce nouveau projet au développement de la prochaine itération de l'IA au travail, son assistant Copilot n'est pas épargné par la critique. En effet, le PDG de Salesforce, Marc Benioff, a récemment déclaré dans un billet publié sur X que l'assistant IA Copilot de Microsoft ne fonctionnait pas, qu'il n'offrait "aucun niveau de précision" et que les clients étaient "obligés de nettoyer le désordre" causé par la mise en œuvre de l'outil.

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous que cette initiative de Microsoft est crédible ou pertinente ?

Voir aussi :

Le PDG de Salesforce, Marc Benioff, déclare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre « aucun niveau de précision » et que les clients sont « obligés de nettoyer le désordre »

Les outils de développement GenAI n'améliorent pas l'efficacité du codage et augmentent le nombre de bogues : avec Microsoft Copilot les développeurs ont constaté une augmentation de 41 % des bogues

« Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/11/2024 à 12:23
Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!

Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/11/2024 à 11:23
C'est marrant de voir des entreprises qui paniquent parce que des employés ont accès à des données confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs données sur pleins de clouds qui ne leur appartiennent pas!

Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".

Citation Envoyé par Stéphane le calme Voir le message
La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?
Bien sûr que non.

Citation Envoyé par Stéphane le calme Voir le message
Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?
Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
Au mieux, une entreprise fera un procès qui lui coûtera affreusement cher pendant une dizaine d'années.

Citation Envoyé par Stéphane le calme Voir le message
Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?
Ni aujourd'hui ni demain.
Comment maîtriser ce qui est externe? (ces systèmes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
Si vous me confiez vos données, est-ce que vous en avez encore la maîtrise?

Citation Envoyé par Stéphane le calme Voir le message
Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?
Hmmm... La sécurité des données sensibles est-elle la priorité de Microsoft?
On peut sérieusement se poser la question quand on voit qu'ils poussent pour Recall, malgré les alertes de leurs propres ingénieurs sécurité...

Citation Envoyé par Stéphane le calme Voir le message
À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
Le problème ne vient pas de la "puissance" d'un outil mais de son intégration à tout un tas de systèmes et à la complexité engendrée.
Aucune chance que ça soit réaliste, donc.

EDIT:
Pour ce qui est du schéma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent protéger d'un attaquant.

Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.

C'est l'utilisateur lui-même qui va le faire, en cliquant sur ce qu'il considère être quelque chose de légitime. Le prompter pour du windows hello, de la biométrie, ou même ses informations hypothécaires s'il le faut n'y changera absolument rien: le programme exécuté aura les droits sur cette "secure enclave" et n'aura plus qu'à exfiltrer les données...

Bref, c'est juste pour donner un sentiment de sécurité sur une fonctionnalité qui n'est qu'un spyware déguisé.

Vive les GAFAM...
1  0