Dans une note publiée en février 2026, le Conseil de l’IA et du Numérique propose un cadrage structurant de l’« IA agentique ». Derrière l’effet d’annonce, l’institution met en lumière les enjeux techniques, réglementaires et environnementaux liés à l’essor des agents autonomes.
Le Conseil de l’IA et du Numérique (CIANum) publie une note intitulée « Les intelligences artificielles à l’heure de la vague agentique : de quoi parle-t-on ? ». Elle propose des bases communes de compréhension alors que les « agents IA » s’installent dans le débat public et dans les stratégies des entreprises. Loin d’une rupture technologique isolée, l’IA agentique est présentée comme la convergence de plusieurs accélérations : modèles de raisonnement plus performants, post-entraînement avancé, élargissement des fenêtres de contexte, innovations logicielles et montée en puissance des capacités cloud.
Une nouvelle couche d’orchestration pour les systèmes IT
La note détaille l’architecture des systèmes agentiques en plusieurs couches : applicative, orchestration, logique décisionnelle et évaluation. C’est la couche d’orchestration qui concentre les enjeux stratégiques, en séquençant les actions et en mobilisant différents micro-services pour accomplir une tâche. Cette structuration transforme progressivement les logiciels en systèmes capables de comprendre, décider, agir et s’améliorer, avec des degrés d’autonomie variables. Le document rappelle toutefois que le niveau d’autonomie totale, auto-dirigée et sans validation humaine, n’est pas atteint à ce stade.
Pour les DSI et équipes IT, l’enjeu n’est plus seulement d’expérimenter des assistants conversationnels, mais d’intégrer des flux agentiques capables d’enchaîner des opérations complexes dans des environnements métiers.
Des risques techniques et cyber accrus
Le Conseil identifie plusieurs limites structurelles. Parmi elles figurent les « effets de cascade », où les erreurs se cumulent dans des enchaînements d’actions, la « dérive de l’orchestration » en l’absence de cadre commun, ou encore les désalignements sémantiques entre agents.
La vulnérabilité des systèmes agentiques constitue également un point de vigilance majeur. Leur capacité à interagir avec d’autres logiciels et infrastructures en fait des cibles potentielles pour des cyberattaques ou des manipulations malveillantes. L’exposition accrue de données sensibles et les enjeux de traçabilité renforcent la nécessité d’un encadrement technique rigoureux.
Un cadre réglementaire applicable mais indirect
Le texte souligne que le règlement européen sur l’intelligence artificielle ne vise pas explicitement l’IA agentique. Les obligations s’appliquent toutefois selon le niveau de risque des systèmes déployés. Les systèmes à haut risque sont soumis à des exigences renforcées en matière de documentation, de supervision humaine, de gestion des risques et de traçabilité. Les sanctions peuvent atteindre 30 millions d’euros ou 7 % du chiffre d’affaires annuel en cas de non-conformité.
Selon les usages, les systèmes agentiques peuvent également relever du règlement sur les services numériques ou du règlement sur les marchés numériques, notamment lorsqu’ils sont intégrés à de grandes plateformes.
Une pression environnementale sous-estimée
La note met en lumière un autre enjeu, moins visible mais stratégique. La généralisation des agents autonomes pourrait entraîner une hausse significative de la consommation énergétique des centres de données. Les analyses prospectives citées évoquent un possible basculement de 20 % à près de 49 % de la consommation totale des datacenters liée à l’IA d’ici la fin de l’année. Dans un contexte où l’inference-as-a-service se développe et où les coûts d’inférence ont fortement diminué ces derniers mois, cette dynamique interroge la soutenabilité à long terme de ces architectures.
Une transformation progressive du travail
Enfin, le Conseil aborde la question sensible de l’impact sur l’emploi. L’IA agentique rend automatisables des tâches jusqu’ici peu concernées, mais la pénétration réelle dans les organisations demeure progressive. Le document invite à repenser l’organisation du travail, la formation et le dialogue social, plutôt qu’à céder aux annonces de ruptures immédiates. En filigrane, la note rappelle que l’IA agentique ne constitue pas une entité autonome détachée des organisations humaines. Elle s’inscrit dans des choix d’architecture, de gouvernance et de régulation qui détermineront son impact réel.








