Accueil Cybersécurité AVIS D’EXPERT – Redéfinir la sécurité à l’ère de l’IA agentique

AVIS D’EXPERT – Redéfinir la sécurité à l’ère de l’IA agentique

Laurent Gelu, Security & Resiliency Advisory Leader chez Kyndryl France, s’intéresse aux implications concrètes de l’IA agentique sur la cybersécurité. Avec des systèmes capables d’agir de manière autonome, les approches traditionnelles montrent leurs limites et obligent à repenser les modèles de protection sur l’ensemble du cycle de vie.

L’essor de l’intelligence artificielle (IA) agentique marque une avancée technologique majeure, tout en posant un défi inédit aux modèles de cybersécurité. En permettant à des agents de raisonner, planifier et agir de manière autonome, cette nouvelle génération de systèmes ouvre des perspectives considérables pour les entreprises, comme l’optimisation des opérations et l’amélioration de l’expérience client. Mais cette autonomie remet profondément en question certains des fondements sur lesquels reposait jusqu’ici la sécurité des systèmes d’information.

Pendant des décennies, le principe de sécurité « Secure by Design » a permis de renforcer la résilience numérique en intégrant la protection dès la conception. Pensés pour des systèmes prévisibles et cloisonnés, ces modèles doivent aujourd’hui être étendus. Dynamiques, adaptatives et souvent opaques, les technologies agentiques créent une nouvelle surface d’attaque, difficilement maîtrisable avec les seules approches statiques héritées du passé.

Les limites des modèles de sécurité traditionnels

Les modèles classiques de cybersécurité reposent sur la protection des périmètres, la validation d’entrées connues et la correction de vulnérabilités logicielles. Or, dans le cas de l’IA agentique, les menaces ciblent aussi les données d’entraînement, les interactions en langage naturel et les mécanismes décisionnels eux-mêmes. Des instructions malveillantes, directes ou indirectes, peuvent détourner les agents, contourner leurs garde-fous ou altérer leur comportement, tandis que leur rapidité et leur autonomie d’exécution compliquent la détection d’anomalies. Le contrôle de sécurité en bout de chaîne n’est plus suffisant.

Cette accélération se confirme aussi dans le domaine de la recherche de vulnérabilités : des modèles récents illustrent la capacité croissante de l’IA à identifier plus vite des failles complexes, voire à contribuer à leur exploitation, ce qui renforce encore l’urgence d’un cadre de gouvernance et de sécurité adapté.

Une accélération des risques en cas d’inaction

Sans évolution des stratégies de sécurité, les risques augmentent avec le niveau d’autonomie, l’étendue des autorisations et l’interconnexion des agents avec les données, les outils et les processus métier.

Un agent doté de larges autorisations peut être détourné pour exfiltrer des données, déclencher des actions non autorisées ou perturber des systèmes critiques. Dans des environnements multi-agents, la compromission d’un seul élément peut entraîner des effets en chaîne. À cela s’ajoutent les risques de vol de modèles, de perte de propriété intellectuelle et de non-conformité réglementaire, notamment au regard du RGPD.

Vers un nouveau cadre de sécurité pour l’IA agentique

Face à ces enjeux, la sécurité à l’ère de l’IA agentique doit être pensée de manière globale, sur l’ensemble de son cycle de vie. Il ne s’agit plus d’ajouter des contrôles a posteriori, mais d’intégrer la sécurité depuis la gouvernance jusqu’à l’exploitation opérationnelle, en passant par le développement et l’usage des modèles.

Cette approche repose sur quatre piliers essentiels :

  1. Une gouvernance encadrée : établir des règles claires sur l’autonomie des agents, avec des responsabilités définies, des limites déclenchant une intervention humaine et des mécanismes de traçabilité assurant transparence et conformité.
  2. Une intégration de la sécurité sur l’ensemble du cycle de conception et de déploiement : intégrer la sécurité tout au long de la chaîne, depuis les données d’entraînement jusqu’aux modèles, aux outils tiers et à leur mise en production, en combinant tests, protection de la vie privée et maîtrise des dépendances.
  3. Une sécurité opérationnelle robuste, fondée sur une gestion des identités agentiques : appliquer les règles en temps réel dans une logique Zero Trust, en évitant toute confiance implicite dans les interactions, en gérant dans l’IAM les agents comme des identités non humaines, avec des droits limités, traçables et révocables, en encadrant l’usage des outils et des permissions, tout en isolant les environnements, en limitant les accès et en sécurisant les échanges.
  4. Une capacité de surveillance et de réponse adaptative : détecter en continu les comportements anormaux, analyser les incidents et ajuster les contrôles face à des menaces évolutives.

Seule une vision transverse, associant technologie, processus et organisation, permet de répondre aux spécificités de ces environnements autonomes.

Faire évoluer la sécurité à l’ère de l’IA agentique

L’ère de l’IA agentique est déjà là. Elle impose aux organisations une responsabilité accrue dans la manière dont elles conçoivent, déploient et sécurisent ces systèmes puissants. Les modèles de sécurité qui ont fait leurs preuves par le passé ne suffisent plus, à eux seuls, à protéger des environnements autonomes, évolutifs et interconnectés. À mesure que les usages agentiques se diffusent et deviennent plus accessibles, les organisations doivent faire évoluer leurs cadres de sécurité, de gouvernance et de contrôle.

En adoptant une approche repensée et fondée sur le cycle de vie complet de ces technologies et sur une gouvernance renforcée, les entreprises peuvent exploiter tout leur potentiel sans compromettre la confiance, la conformité ni la résilience. L’enjeu n’est pas de remplacer les fondations existantes de la cybersécurité, mais de les faire évoluer rapidement et de les étendre pour répondre aux exigences de cette nouvelle phase d’autonomie numérique.