Accueil Cybersécurité AVIS D’EXPERT – IA sur site : attention aux cyber-risques

AVIS D’EXPERT – IA sur site : attention aux cyber-risques

Alors que de plus en plus d’entreprises choisissent d’exécuter leurs modèles d’intelligence artificielle en interne pour des raisons de souveraineté et de confidentialité, les risques de sécurité se multiplient. Dans cet avis d’expert, Julien Fournier, Vice President Southern Europe chez Netskope, alerte sur les dangers sous-estimés de l’IA sur site et appelle à une approche de sécurité proactive pour encadrer cette nouvelle ère du Shadow AI.

Depuis plusieurs années, motivées par la promesse d’une plus grande agilité, d’une meilleure extensibilité et d’une gestion simplifiée, les entreprises adoptent des technologies d’intelligence artificielle (IA). Une récente étude de l’INSEE, indique en effet que 10 % des entreprises françaises utilisent au moins une technologie d’IA contre 6 % en 2023. Toutefois, légitimement préoccupées par la sécurité des données et par cette accélération des déploiements d’IA sur site, nombre d’entreprises cherchent désormais des solutions à contre-courant pour leurs besoins en matière d’IA.

Exécuter des modèles d’IA sur une infrastructure locale habilite une organisation à mieux maîtriser ses données sensibles, et ainsi de répondre aux questions de confidentialité et de souveraineté des données. En apparence, cette approche semble apporter la solution aux problématiques de sécurité soulevées par les outils d’IA basés sur le cloud. Cependant, une analyse plus approfondie de cette tendance révèle qu’un déploiement local n’est pas forcément synonyme de sécurité renforcée. En effet, pour tout déploiement sur site, la responsabilité de la sécurité incombe entièrement à l’organisation et à ses utilisateurs. Or, sans une implication des équipes de sécurité, ces derniers peuvent devenir des vecteurs de risque majeurs.

Les LLM, une adoption accrue malgré un manque de sécurité

D’après nos recherches, les interfaces LLM (Grand modèle de langage) ne sont pas aussi répandues que les plateformes d’IA générative (genAI) avec seulement 34 % d’organisations qui utilisent ces interfaces, contre 41 % pour les plateformes genAI. Par ailleurs, à l’échelle mondiale 5,5 % des organisations comptent déjà des utilisateurs qui exécutent des agents d’IA sur site créés à l’aide de frameworks courants. Facilement accessibles, les LLM permettent aux utilisateurs de créer des applications et des agents personnalisés. Cependant, contrairement aux plateformes SaaS (Software-as-a-Service) managées, ils n’intègrent souvent que peu, voire aucune, sécurité.

De plus, les modèles et outils indispensables aux développements de l’IA sur site se situent souvent sur des marketplaces publiques, et proposent des ressources open source qui peuvent présenter des risques importants pour la supply chain. Il est très facile pour des cybercriminels d’intégrer du code malveillant dans des modèles ou des ensembles de données, ou d’utiliser des formats de fichiers vulnérables comme Python Pickles pour exécuter du code arbitraire et infiltrer le réseau d’une organisation. En d’autres termes, n’importe quel employé s’y connaissant en technologie, qui télécharge et déploie un modèle non vérifié, peut se retrouver à octroyer à un cyberattaquant un accès direct à l’entreprise.

Agents d’IA, un autre vecteur de risque

Les modèles ou agents d’IA présentent également des risques pour la sécurité des données. En effet, pour s’entraîner ou effectuer leurs tâches, la plupart d’entre eux nécessitent d’accéder directement aux sources de données de l’entreprise, et d’interagir avec ces dernières, ce qui exige de restreindre leurs niveaux d’autorisation pour éviter toute exposition des données sensibles au cours de leurs opérations.

Le problème, c’est que ces déploiements sur site sont souvent entrepris sans la visibilité ni le contrôle des équipes informatiques et de cybersécurité. Or, on ne peut pas sécuriser ce que l’on ne connait pas, et les plateformes, modèles ou agents d’IA peuvent être déployés et utilisés sur site sans les garde-fous appropriés. Résultat, plus les expériences de ce type vont se multiplier, plus les problèmes de

« Shadow AI » et de sécurité vont augmenter, à moins que les équipes de sécurité ne prennent des mesures proactives pour détecter et contrôler ces pratiques.

Établir une stratégie d’automatisation sécurisée

Face à cette situation, la solution ne consiste pas à interdire complètement les déploiements de l’IA sur site, car la réalité est que généralement, les employés déploient et testent ces outils dans une optique de productivité, ce qui s’aligne sur la stratégie de la plupart des organisations. Les équipes de sécurité doivent plutôt chercher à adopter une stratégie d’autonomisation sécurisée plus nuancée afin de faire de la sécurité un levier d’innovation et non un obstacle.

Ainsi, la priorité est d’éliminer le Shadow AI en identifiant ceux qui utilisent ces outils et la manière dont ils s’en servent. Une telle démarche exige des fonctionnalités de sécurité capables de fournir une visibilité totale et un contrôle complet sur le trafic, le réseau, les utilisateurs et les données, aussi bien dans le cloud que dans les environnements sur site. Une fois la visibilité établie, les équipes de sécurité peuvent appliquer les contrôles appropriés pour garantir un développement et une utilisation sécurisés et responsables de l’IA.

En somme, bien que les promesses d’un déploiement de l’IA sur site puissent séduire, les entreprises ne doivent pas laisser la quête d’innovation les exposer à des risques. En identifiant et en sécurisant ces déploiements de manière proactive, les organisations pourront continuer à innover tout en protégeant leurs ressources les plus précieuses : leurs données.