Trombone

L’IA générative face aux cyberattaques !

IA générative : nouvelles opportunités… et nouveaux risques cyber

L’IA générative connaît une adoption massive grâce à sa flexibilité et à son intégration facile dans de nombreux outils. Basée sur les grands modèles de langage (LLM), elle ouvre de nouvelles possibilités… y compris pour les cyberattaquants. Si elle peut faciliter certaines actions malveillantes, elle présente également des limites et devient elle-même une cible. Cette synthèse propose un état des lieux des menaces liées à l’IA générative.

Un atout pour les cybercriminels

Les attaquants exploitent déjà l’IA générative à différentes étapes de leurs opérations :

  • profilage des victimes,
  • ingénierie sociale,
  • développement ou amélioration de malwares.

Les usages diffèrent selon le niveau de sophistication :

  • pour les acteurs avancés, l’IA devient un levier d’efficacité et de passage à l’échelle ;
  • pour les moins expérimentés, elle sert surtout d’outil d’apprentissage.

À ce jour, l’ANSSI rappelle qu’aucune IA générative n’est capable de conduire de manière totalement autonome une cyberattaque complète.

Une technologie également vulnérable

Les grands modèles de langage peuvent eux aussi être la cible d’attaques. Parmi les risques identifiés :

  • empoisonnement de modèles,
  • altération ou injection de données,
  • désinformation,
  • compromission de la chaîne logicielle,
  • exfiltration de données sensibles.

Ces menaces montrent que les cyberattaquants s’adaptent rapidement aux nouveaux usages numériques.

Renforcer la vigilance face à un environnement en mutation

Avec des usages qui évoluent aussi vite que les techniques d’attaque, l’ANSSI insiste sur la nécessité de réévaluer régulièrement les risques afin d’adapter les mesures de protection.

Sur les mêmes thèmes