IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les adversaires des États-Unis comme l'Iran, la Corée du Nord, la Russie et la Chine commencent à utiliser l'IA générative dans leurs cyberopérations offensives
Après Microsoft et OpenAI

Le , par Jade Emy

9PARTAGES

4  0 
Microsoft a déclaré que les adversaires des États-Unis - principalement l'Iran et la Corée du Nord et, dans une moindre mesure, la Russie et la Chine - commencent à utiliser l'intelligence artificielle générative pour monter ou organiser des cyberopérations offensives. Le géant de la technologie a déclaré avoir détecté et perturbé, en collaboration avec son partenaire commercial OpenAI, des menaces qui utilisaient ou tentaient d'exploiter la technologie d'IA qu'ils avaient développée.

Dans un billet de blog, l'entreprise de Redmond (Washington) a déclaré que ces techniques étaient "à un stade précoce" et qu'elles n'étaient pas "particulièrement nouvelles ou uniques", mais qu'il était important de les exposer publiquement alors que les rivaux des États-Unis exploitent les grands modèles de langage pour accroître leur capacité à pénétrer dans les réseaux et à mener des opérations d'influence.

Les entreprises de cybersécurité utilisent depuis longtemps l'apprentissage automatique à des fins défensives, principalement pour détecter les comportements anormaux dans les réseaux. Mais les criminels et les pirates offensifs l'utilisent également, et l'introduction des grands modèles de langage, sous la houlette du ChatGPT d'OpenAI, a intensifié ce jeu du chat et de la souris.

Microsoft a investi des milliards de dollars dans OpenAI, et cette annonce a coïncidé avec la publication d'un rapport indiquant que l'IA générative devrait renforcer l'ingénierie sociale malveillante, conduisant à des deepfakes et à des clonages de voix plus sophistiqués. Une menace pour la démocratie dans une année où plus de 50 pays organiseront des élections, ce qui amplifie la désinformation et se produit déjà.


Voici quelques exemples fournis par Microsoft. Dans chaque cas, l'entreprise a indiqué que tous les comptes et actifs d'IA générative des groupes nommés avaient été désactivés :

  • Le groupe de cyberespionnage nord-coréen connu sous le nom de Kimsuky a utilisé les modèles pour effectuer des recherches sur les groupes de réflexion étrangers qui étudient le pays, et pour générer du contenu susceptible d'être utilisé dans des campagnes de piratage par spear-phishing.
  • Les Gardiens de la révolution iraniens ont utilisé des grands modèles de langage pour faciliter l'ingénierie sociale, le dépannage des erreurs logicielles et même pour étudier la manière dont les intrus pourraient échapper à la détection dans un réseau compromis. Cela inclut la création de courriels d'hameçonnage "dont un prétendant provenir d'une agence de développement international et un autre tentant d'attirer d'éminentes féministes vers un site web sur le féminisme créé par l'attaquant". L'IA permet d'accélérer et de stimuler la production de courriels.
  • L'unité de renseignement militaire russe GRU, connue sous le nom de Fancy Bear, a utilisé les modèles pour rechercher des technologies satellitaires et radar susceptibles d'être liées à la guerre en Ukraine.
  • Le groupe chinois de cyberespionnage Aquatic Panda, qui cible un large éventail d'industries, d'établissements d'enseignement supérieur et de gouvernements, de la France à la Malaisie, a interagi avec les modèles "d'une manière qui suggère une exploration limitée de la façon dont les LLM peuvent augmenter leurs opérations techniques".
  • Le groupe chinois Maverick Panda, qui s'en prend depuis plus de dix ans aux entreprises de défense américaines et à d'autres secteurs, a eu des interactions avec des grands modèles de langage qui suggèrent qu'il évalue leur efficacité en tant que source d'informations "sur des sujets potentiellement sensibles, des personnes de haut niveau, la géopolitique régionale, l'influence des États-Unis et les affaires intérieures".


Dans un blog distinct, OpenAI a déclaré que son chatbot actuel de modèle GPT-4 n'offrait "que des capacités limitées et progressives pour les tâches de cybersécurité malveillantes, au-delà de ce qui est déjà réalisable avec des outils non alimentés par l'IA et accessibles au public".

Les chercheurs en cybersécurité s'attendent à ce que cela change.

En avril dernier, la directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures (U.S. Cybersecurity and Infrastructure Security Agency), Jen Easterly, a déclaré au Congrès qu'"il y a deux menaces et défis qui définissent l'époque. L'une est la Chine, l'autre l'intelligence artificielle". Jen Easterly a déclaré à cette occasion que les États-Unis devaient veiller à ce que l'intelligence artificielle soit conçue dans un souci de sécurité.

Les détracteurs du lancement public de ChatGPT en novembre 2022 - et des lancements ultérieurs par des concurrents tels que Google et Meta - soutiennent qu'il s'agissait d'une précipitation irresponsable, étant donné que la sécurité a été largement prise en compte après coup dans leur développement. "Il est évident que les mauvais acteurs utilisent des grands modèles de langage - cette décision a été prise lorsque la boîte de Pandore a été ouverte", a déclaré Amit Yoran, PDG de la société de cybersécurité Tenable.

Certains professionnels de la cybersécurité se plaignent de la création et de la vente par Microsoft d'outils destinés à remédier aux vulnérabilités des grands modèles de langage, alors qu'il serait plus responsable de s'attacher à les rendre plus sûrs. "Pourquoi ne pas créer des modèles de base LLM plus sûrs au lieu de vendre des outils défensifs pour un problème qu'ils contribuent à créer ?", a demandé Gary McGraw, vétéran de la sécurité informatique et cofondateur de l'Institut Berryville d'apprentissage automatique.

Edward Amoroso, professeur à l'université de New York et ancien responsable de la sécurité d'AT&T, a déclaré que si l'utilisation de l'IA et des grands modèles de langage ne constitue pas une menace immédiate, elle "finira par devenir l'une des armes les plus puissantes de l'offensive militaire de chaque État-nation".

Source : Microsoft

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

L'IA va accroître le nombre et l'impact des cyberattaques. Les ransomwares étant susceptibles d'en être les plus grands bénéficiaires au cours des deux prochaines années

64 % des chefs d'entreprise estiment que l'IA générative posera des problèmes de cybersécurité, mais il semble que les avantages l'emportent sur les inconvénients, selon une enquête de PwC

Les États-Unis et le Royaume-Uni, ainsi que des partenaires internationaux de 16 autres pays, ont publié de nouvelles lignes directrices pour le développement de systèmes d'IA sécurisés

Une erreur dans cette actualité ? Signalez-nous-la !