Accueil IA en entreprise : une adoption massive mais une sécurité encore insuffisante

IA en entreprise : une adoption massive mais une sécurité encore insuffisante

Alors que 89 % des organisations exécutent ou testent déjà des workloads d’IA, la maturité en matière de sécurité reste largement insuffisante. C’est l’un des constats clés du dernier rapport publié par Tenable sur l’état du cloud et de la sécurité IA. Malgré une généralisation rapide de l’IA dans les environnements cloud, les entreprises peinent à appréhender leurs expositions réelles.

Des incidents dominés par des vulnérabilités classiques

Selon l’étude, plus d’un tiers des organisations ayant adopté l’IA (34 %) ont déjà subi un incident lié à l’IA. Contrairement aux scénarios avancés souvent évoqués, ces compromissions proviennent majoritairement de failles classiques : vulnérabilités logicielles (21 %), défauts de modèles (19 %) et menaces internes (18 %). À l’inverse, les inquiétudes portent davantage sur des risques prospectifs, comme la manipulation ou l’utilisation non autorisée de modèles.

Cette asymétrie entre menaces réelles et menaces perçues repose aussi sur des pratiques de sécurité encore limitées. 78 % des organisations laissent les données liées à l’IA non classifiées ou non chiffrées, et seules 22 % appliquent ces deux mesures de base. Les tests de sécurité dédiés à l’IA restent également rares : seulement 26 % des entreprises mènent des exercices ciblés, tels que le red teaming spécifique à l’IA.

Malgré ces lacunes, les démarches de conformité progressent. La majorité des organisations (51 %) s’appuient sur des cadres comme le NIST AI Risk Management Framework ou l’AI Act pour structurer leur approche. Mais la mise en œuvre technique ne suit pas toujours. Le rapport souligne que la conformité fournit un cadre utile, sans pour autant couvrir le besoin de sécurisation opérationnelle des environnements IA, notamment dans des architectures hybrides ou multi-cloud.

Des environnements IA exposés via l’infrastructure existante

Les données du rapport indiquent également qu’un tiers des incidents touchant les adopteurs de l’IA proviennent de vulnérabilités non liées aux modèles eux-mêmes, mais issues de failles classiques dans les systèmes sous-jacents. Ce point rappelle que l’IA ne fonctionne pas en silo et dépend d’écosystèmes applicatifs et cloud qui restent exposés aux attaques traditionnelles.

D’après Tenable, les entreprises doivent donc rééquilibrer leurs priorités, en renforçant les contrôles fondamentaux (gestion des identités, configurations, durcissement des workloads) tout en intégrant les spécificités propres à l’IA dans une stratégie globale de gestion des risques. L’enjeu consiste autant à sécuriser les traitements IA qu’à éviter que des faiblesses historiques de l’infrastructure ne deviennent des portes d’entrée vers les modèles, les données ou les pipelines IA.