L’adoption des agents d’intelligence artificielle progresse rapidement dans les entreprises, mais leur encadrement reste limité. C’est l’un des principaux constats du dernier rapport publié par Rubrik Zero Labs, fondé sur une enquête menée auprès de plus de 1 600 responsables IT et sécurité. L’étude met en évidence un décalage entre le déploiement de ces systèmes autonomes et la capacité des organisations à les superviser, les sécuriser et en maîtriser les effets.
Selon les résultats, 86 % des organisations interrogées anticipent un contournement de leurs mesures de sécurité par les agents IA au cours de l’année à venir. Dans le même temps, seuls 23 % des répondants estiment disposer d’une visibilité complète sur les agents actifs dans leurs environnements, un niveau que le rapport considère probablement surestimé. Cette visibilité limitée complique la gestion d’identités capables d’agir de manière autonome, d’accéder à des données sensibles et de prendre des décisions opérationnelles.
La situation est accentuée par la croissance rapide des identités non humaines. Ces dernières se multiplient plus vite que les capacités des entreprises à les recenser et à les gouverner, formant ce que le rapport qualifie de « shadow workforce ». Souvent dotées d’accès persistants et faiblement supervisées, elles constituent de nouvelles surfaces d’attaque et facilitent les déplacements latéraux au sein des systèmes d’information.
Des bénéfices opérationnels remis en question par les contraintes de supervision
Les résultats de l’étude relativisent également les gains d’efficacité associés aux agents d’IA. Plus de 80 % des répondants indiquent que ces systèmes nécessitent davantage de supervision manuelle qu’ils n’apportent de gains opérationnels. Par ailleurs, 88 % déclarent ne pas être en mesure d’annuler les actions des agents sans perturber les systèmes, ce qui limite leur capacité à corriger rapidement des comportements indésirables.
Les enjeux de reprise et de continuité d’activité apparaissent comme des points de fragilité. Près de neuf dirigeants sur dix se disent préoccupés par leur capacité à atteindre leurs objectifs de reprise dans un contexte de menaces accrues liées aux agents. Dans le même temps, près de la moitié des répondants s’attendent à ce que les systèmes agentiques jouent un rôle central dans les attaques à venir. En réduisant les délais d’exécution et en automatisant certaines opérations, ces technologies modifient les modes opératoires des attaquants.
La résilience s’impose comme un enjeu central des stratégies IA
Pour les directions générales et les conseils d’administration, la question dépasse désormais le cadre technologique. Le rapport souligne que la stratégie d’adoption de l’IA ne peut plus être dissociée des enjeux de résilience. Les organisations qui privilégient la rapidité de déploiement sans renforcer leurs mécanismes de contrôle s’exposent à des environnements où les incidents sont plus difficiles à contenir et à corriger.
L’étude s’appuie à la fois sur des données d’enquête à l’échelle mondiale et sur une analyse technique des vecteurs d’attaque émergents, couvrant les couches outils, cognitives et identitaires des systèmes d’IA. Elle met en évidence une évolution des approches de sécurité : au-delà de la prévention des violations, il s’agit désormais de maintenir un contrôle continu sur des systèmes de plus en plus autonomes.



