L’intelligence artificielle, devenue un levier majeur de transformation pour les entreprises, ouvre aussi la voie à une nouvelle génération de cybermenaces. Dans son dernier rapport, la société de cybersécurité Cato Networks met en évidence une évolution profonde des modes opératoires. Les cybercriminels ne ciblent plus seulement les failles techniques, mais exploitent désormais les usages mêmes de l’IA.
Une cybercriminalité centrée sur les usages de l’IA
Selon les chercheurs de Cato CTRL, le laboratoire de recherche de l’éditeur, les attaquants tirent désormais parti de la confiance accordée aux systèmes d’intelligence artificielle. Ils exploitent non seulement les données utilisées par ces systèmes, mais aussi les actions qu’ils sont capables d’exécuter.
L’IA intervient ainsi à toutes les étapes des opérations malveillantes, de la préparation à l’exécution, transformant en profondeur les stratégies d’attaque.
Cinq évolutions majeures des menaces
Le rapport identifie plusieurs tendances marquantes qui illustrent cette nouvelle phase de la cybercriminalité.
D’abord, la génération de fausses identités devient plus accessible que jamais. Des documents officiels, comme des passeports, peuvent être créés en quelques minutes à l’aide d’outils d’IA générative disponibles publiquement.
Parallèlement, les capacités de phishing se sont industrialisées. De nouveaux outils, inspirés de modèles d’IA avancés, permettent de produire à grande échelle des campagnes d’ingénierie sociale ou du code malveillant, avec un niveau de personnalisation inédit.
Autre évolution notable : le concept de « Living Off AI » (LOA). Il consiste à détourner des workflows automatisés pilotés par l’IA. Une simple entrée externe, comme un ticket de support, peut ainsi injecter des instructions exécutées avec les privilèges d’un utilisateur interne, facilitant l’exfiltration de données ou la manipulation de systèmes sans alerte.
Les chercheurs pointent également des faiblesses au niveau des navigateurs intégrant des assistants IA. Une technique baptisée « HashJack » permet d’injecter des instructions malveillantes dans des fragments d’URL, influençant le comportement des assistants et déclenchant des actions indésirables, sans compromettre directement les sites.
Enfin, certaines fonctionnalités d’outils d’IA peuvent être détournées pour renforcer des attaques existantes. Cato CTRL évoque notamment un scénario dans lequel des capacités de Claude Skills sont utilisées pour orchestrer un ransomware, démontrant comment des modules apparemment légitimes peuvent être instrumentalisés à des fins malveillantes.
Vers un changement de paradigme en cybersécurité
Au-delà des cas d’usage identifiés, le rapport met en évidence une tendance de fond : les attaquants ne ciblent plus uniquement les systèmes, mais les interactions entre utilisateurs, données et intelligences artificielles.
Face à cette mutation, les entreprises doivent adapter leur approche. Cela passe notamment par un renforcement de la gouvernance des usages de l’IA, une surveillance accrue des workflows automatisés et une remise en question de la fiabilité des données issues de ces systèmes.
Alors que l’IA devient omniprésente, elle s’impose aussi comme un nouveau terrain d’affrontement pour la cybersécurité.






