Avant de plonger dans cette analyse sur les risques de la Shadow AI, découvrez les bons réflexes à adopter avec la Checklist – Comment protéger vos données sensibles des LLMs
L’IA générative s’est imposée en quelques mois dans le quotidien des collaborateurs, souvent en dehors de tout cadre défini. Un phénomène que Nicolas Jacquey, Chief Revenue Officer chez SafeBrain, analyse à travers de nombreux cas d’usage en entreprise : la shadow AI. Derrière les gains de productivité immédiats, elle introduit un risque majeur, encore largement sous-estimé, de perte de contrôle sur les données sensibles. Dans cet article, il revient sur les mécanismes à l’œuvre et les moyens pour les DSI de reprendre le contrôle.
La shadow AI pose un risque immédiat pour les organisations : l’exposition et la fuite de données hors de tout cadre de sécurité.
Dans la plupart des organisations, les collaborateurs utilisent déjà quotidiennement des assistants proposés par OpenAI, Google ou Anthropic pour analyser des documents internes, rédiger des notes ou générer du code.
Les chiffres sont sans appel : entre 60 et 75 % des salariés ont recours à une IA générative dans leur travail, et ce alors que moins d’une entreprise sur trois a défini une politique d’usage formalisée.
Comme pour le SaaS et le cloud, les usages se sont développés plus vite que la gouvernance IT, avec cette fois une différence majeure : la matière première de ces outils est la donnée elle-même.
« Derrière chaque prompt envoyé à un outil d’IA générative se cache potentiellement une information confidentielle (données clients, documents stratégiques, code propriétaire), transférée vers des environnements que l’entreprise ne maîtrise pas. »
Autrement dit, la shadow AI n’est pas un phénomène émergent. Elle est déjà installée dans les entreprises… et les expose à de sérieux risques en matière de sécurité.
Un phénomène massif mais souvent invisible
Cette situation s’explique facilement. L’IA générative cumule trois accélérateurs puissants :
- un accès instantané via un navigateur
- une expérience utilisateur extrêmement simple
- un coût nul ou quasi nul.
La plupart des outils grand public proposent des versions gratuites, ce qui rend leur adoption immédiate. Dans les audits que nous menons, les mêmes situations reviennent systématiquement : des juristes qui analysent des contrats dans une IA publique, des équipes marketing qui uploadent des présentations internes pour en générer des synthèses, des développeurs qui collent du code propriétaire dans un assistant pour identifier un bug.
Dans un grand groupe industriel européen que nous avons accompagné récemment, l’analyse du trafic réseau a montré que plus de 18 % des collaborateurs utilisaient quotidiennement une IA générative externe, sans que la DSI ait la moindre visibilité sur les données transmises.
Ajoutons à cela un facteur déterminant : le discours très pro-IA des directions générales. Depuis deux ans, les dirigeants encouragent leurs équipes à expérimenter ces outils pour gagner en productivité. Le message est clair : tester, automatiser, aller plus vite. Le problème est que cette incitation précède souvent la définition de règles d’usage.
Pourquoi les IA grand public sont structurellement des aspirateurs à données
Mais il serait naïf de croire que ces plateformes sont de simples outils neutres. Leur modèle économique repose sur la donnée. Une étude de Surfshark montre par exemple que Gemini collecte jusqu’à 22 types de données, allant de la localisation au contenu des interactions.
Les interfaces elles-mêmes sont conçues pour encourager l’utilisateur à fournir un maximum de contexte : décrire précisément un problème, partager un document, détailler une situation. Le ton conversationnel pousse naturellement à la confidence et les systèmes relancent constamment les échanges pour prolonger la conversation.
L’objectif est simple : capter l’attention et collecter davantage de données. Au point que 16 % des utilisateurs déclarent utiliser ChatGPT comme un “confident quotidien”. Dans un cadre professionnel, un tel comportement est évidemment problématique.
Des incidents de plus en plus documentés
Les incidents ne sont plus théoriques. L’exemple le plus connu reste celui de Samsung Electronics. En 2023, des ingénieurs ont copié du code propriétaire et des notes internes dans un assistant basé sur OpenAI pour corriger un bug. Ces informations se sont retrouvées stockées sur les serveurs du fournisseur, obligeant l’entreprise à restreindre fortement l’usage de ces outils.
Dans une banque européenne que nous avons accompagnée, un audit interne a révélé qu’un collaborateur avait copié l’intégralité d’un dossier d’appel d’offres contenant des données financières et des informations clients dans une IA publique afin d’obtenir une synthèse.
Dans un cabinet de conseil, des consultants utilisaient régulièrement un assistant pour résumer des documents confidentiels de leurs clients. Dans tous ces cas, il n’y avait aucune intention malveillante. Les utilisateurs cherchaient simplement à travailler plus vite. Mais le résultat est le même : des données sensibles quittent le périmètre de l’entreprise.
Un problème de gouvernance des données
Le problème est avant tout un problème de gouvernance des données. Dès qu’une information interne est transmise à une IA publique, plusieurs questions critiques apparaissent :
- Où les données sont-elles stockées ?
- Dans quelle juridiction sont-elles traitées ?
- Qui peut y accéder et combien de temps sont-elles conservées ?
Dans la plupart des organisations, la DSI ne dispose pas de ces réponses. Ces pratiques entrent en tension avec les obligations du RGPD, qui impose une maîtrise des flux de données personnelles et une transparence sur les traitements. Avec l’entrée en vigueur progressive du AI Act, la pression réglementaire va encore s’accentuer.
Interdire l’IA ne fonctionne pas
Face à ces risques, certaines entreprises ont tenté une réponse radicale :
« interdire les outils d’IA générative. C’est une erreur. Dans la pratique, ces interdictions ne fonctionnent pas : les collaborateurs contournent les restrictions en utilisant leur smartphone, leurs comptes personnels ou des outils non filtrés par l’infrastructure de l’entreprise. »
Les retours terrain montrent que ces blocages ont simplement déplacé les usages hors du périmètre visible de la DSI, rendant la shadow AI encore plus difficile à contrôler.
Le rôle stratégique de la DSI : industrialiser l’IA
La seule réponse crédible consiste à donner aux DSI les moyens de reprendre la main. Les entreprises les plus avancées ont compris que l’enjeu n’était pas de bloquer l’IA, mais de l’industrialiser.
Elles déploient désormais des plateformes d’IA gouvernées, comme SafeBrain, capables de contrôler les accès aux modèles, filtrer les données sensibles, journaliser les interactions et tracer les usages.
Ces plateformes permettent d’intégrer l’IA directement dans le système d’information en la connectant aux bases documentaires internes, aux applications métiers et aux référentiels de données tout en encadrant et en sécurisant l’utilisation de l’IA grâce à :
- Un hébergement souverain des données
- Un contrôle et filtrage des informations envoyées aux modèles
- L’orchestration de plusieurs LLMs selon les usages
« Dans ce modèle, la DSI ne se contente plus de sécuriser l’infrastructure : elle devient l’architecte de l’IA dans l’entreprise. »
Le déploiement de ces environnements, associé à des programmes de conduite du changement, permet également d’élargir l’usage de l’IA à l’ensemble des collaborateurs… et pas seulement à ceux qui se seraient offert un abonnement personnel à Claude Code !
Dans plusieurs organisations, nous constatons d’ailleurs qu’entre 20 et 30 % des collaborateurs n’ont toujours pas adopté l’IA, souvent par manque de confiance vis-à-vis de la gestion des données.
La shadow AI est un signal fort sur lequel capitaliser
Au fond, la shadow AI n’est pas seulement un risque : elle est aussi un révélateur. Elle montre que les collaborateurs ont déjà identifié le potentiel de productivité de l’IA générative. La shadow AI est déjà dans les organisations. La question n’est plus de l’empêcher, mais de la transformer en un avantage compétitif sécurisé, piloté par la DSI et mis au service de la performance des métiers. C’est précisément l’objectif de plateformes comme SafeBrain : garder la maîtrise de leurs données les plus sensibles, sans renoncer à la puissance de l’IA générative.
Découvrez la Checklist – Comment protéger vos données sensibles des LLMs – Jamespot
Découvrez la Checklist – Comment protéger vos données sensibles des LLMs – Jamespot









