L’incident OpenClaw, au cours duquel un agent IA a supprimé des centaines d’e-mails malgré une instruction explicite d’attendre une validation humaine, rappelle une réalité souvent sous-estimée : la sécurité des agents ne dépend pas seulement des prompts. Elle repose avant tout sur l’architecture des identités et des permissions.
Pour Okta, l’identité devient ainsi le véritable plan de contrôle des environnements où se multiplient les agents autonomes. On a discuté du sujet avec Xavier Mathis, le directeur France et Aziz Si Mohammed, Ingénieur Solutions.
Quand les agents agissent avec des identités non humaines
Les agents d’intelligence artificielle ne sont plus de simples assistants conversationnels. Ils orchestrent désormais des workflows, appellent des API, interagissent avec des applications SaaS et accèdent à des environnements cloud. Pour fonctionner, ils utilisent des identités techniques : comptes de service, clés API, tokens OAuth ou certificats.
Les instructions données à l’agent ne suffisent pas à déterminer ce qu’il peut réellement faire. Lorsque la consigne disparaît ou qu’une action se déclenche automatiquement, ce sont les droits techniques associés à cette identité qui deviennent déterminants.
« Pour une identité humaine, on compte aujourd’hui entre dix et quatre-vingt-dix identités non humaines dans une entreprise », explique Xavier Mathis, Country Manager France chez Okta. Cette multiplication rapide transforme profondément la surface d’exposition. Pourtant, seules environ 10 % des organisations ont commencé à structurer la gestion du cycle de vie de ces identités non humaines.
L’essor de l’IA générative accélère la création d’agents dans l’ensemble des métiers. Équipes RH, fonctions métiers ou équipes applicatives développent leurs propres agents pour automatiser des tâches ou accélérer certains processus.
Cette dynamique s’accompagne d’un phénomène bien connu des équipes IT : l’apparition d’un shadow AI. « On voit aujourd’hui un peu le retour du shadow IT, mais sous une autre forme », explique Xavier Mathis. « Les équipes créent des agents de leur côté et cela sort rapidement de la sphère de contrôle de l’IT. »
La difficulté tient aussi au fait que ces agents ne suivent pas les mêmes logiques que les identités humaines. « Une identité humaine est visible dans le système d’information, elle vient du système RH, on sait qui elle est et quels sont ses droits », explique Aziz Si Mohammed. « Un agent, lui, peut être créé par une équipe et ne pas être visible du tout par la sécurité. »
Cette situation entraîne une perte de responsabilité. « Quand on crée des agents, on perd parfois la notion de responsabilité », poursuit-il. « La question devient alors : au nom de qui agit cet agent ? ».
Le risque est d’autant plus important que les agents peuvent chercher la voie la plus simple pour exécuter une tâche. « Le chemin le plus court pour un agent est souvent d’utiliser des comptes à hauts privilèges », explique Aziz Si Mohammed. « C’est là que les problèmes apparaissent. »
L’identité comme plan de contrôle des agents
Face à cette multiplication d’identités non humaines, la première étape consiste à retrouver de la visibilité. Cela passe par une cartographie des agents et des ressources auxquelles ils accèdent. Les agents finissent toujours par utiliser un compte ou une identité technique, ce qui permet d’identifier leurs traces et leurs interactions avec les systèmes.
Une fois cette visibilité établie, les organisations peuvent reprendre le contrôle. L’objectif est de rattacher chaque agent à un système de gestion d’identité, afin de déterminer qui peut l’utiliser et dans quelles conditions.
Dans cette approche, l’agent agit au nom de l’utilisateur qui l’a mandaté. S’il interroge une application ou un système RH, il ne peut accéder qu’aux données auxquelles cet utilisateur a lui-même droit. Lorsque l’agent tente une action sensible, des mécanismes de validation peuvent également imposer une approbation humaine avant exécution.
Cette logique s’inscrit dans le principe fondamental du moindre privilège : limiter les autorisations au strict nécessaire tout en conservant la capacité d’exécuter les workflows attendus. Dans certains cas, des privilèges supplémentaires peuvent être accordés temporairement, avec des mécanismes d’approbation et de traçabilité.
Pour Okta, l’enjeu est donc de gérer de manière convergente les identités humaines, les identités à privilèges et les identités non humaines. « L’idée n’est pas de freiner l’innovation, mais de l’encadrer pour éviter des risques qui peuvent avoir des conséquences financières ou réputationnelles importantes », souligne Xavier Mathis.
Dans un environnement où les agents IA se multiplient et gagnent en autonomie, l’identité devient ainsi l’infrastructure de contrôle centrale. Plus que les instructions données aux agents, ce sont leurs droits techniques qui déterminent ce qu’ils sont réellement capables de faire.








