L’IA générative connaît une adoption massive grâce à sa flexibilité et à son intégration facile dans de nombreux outils. Basée sur les grands modèles de langage (LLM), elle ouvre de nouvelles possibilités… y compris pour les cyberattaquants. Si elle peut faciliter certaines actions malveillantes, elle présente également des limites et devient elle-même une cible. Cette synthèse propose un état des lieux des menaces liées à l’IA générative.
Les attaquants exploitent déjà l’IA générative à différentes étapes de leurs opérations :
Les usages diffèrent selon le niveau de sophistication :
À ce jour, l’ANSSI rappelle qu’aucune IA générative n’est capable de conduire de manière totalement autonome une cyberattaque complète.
Les grands modèles de langage peuvent eux aussi être la cible d’attaques. Parmi les risques identifiés :
Ces menaces montrent que les cyberattaquants s’adaptent rapidement aux nouveaux usages numériques.
Avec des usages qui évoluent aussi vite que les techniques d’attaque, l’ANSSI insiste sur la nécessité de réévaluer régulièrement les risques afin d’adapter les mesures de protection.