Partie N°1 | Shadow AI : une menace déjà à l’œuvre dans les entreprises
L’IA générative s’est imposée en quelques mois dans le quotidien des collaborateurs, souvent en dehors de tout cadre défini. Un phénomène que Nicolas Jacquey, Chief Revenue Officer chez SafeBrain, analyse à travers de nombreux cas d’usage en entreprise : la shadow AI. Derrière les gains de productivité immédiats, elle introduit un risque majeur, encore largement sous-estimé, de perte de contrôle sur les données sensibles. Dans cet article en 2 parties, il revient sur les mécanismes à l’œuvre et les moyens pour les DSI de reprendre le contrôle.
La shadow AI pose un risque immédiat pour les organisations : l’exposition et la fuite de données hors de tout cadre de sécurité.
Dans la plupart des organisations, les collaborateurs utilisent déjà quotidiennement des assistants proposés par OpenAI, Google ou Anthropic pour analyser des documents internes, rédiger des notes ou générer du code.
Les chiffres sont sans appel : entre 60 et 75 % des salariés ont recours à une IA générative dans leur travail, et ce alors que moins d’une entreprise sur trois a défini une politique d’usage formalisée.
Comme pour le SaaS et le cloud, les usages se sont développés plus vite que la gouvernance IT, avec cette fois une différence majeure : la matière première de ces outils est la donnée elle-même.
« Derrière chaque prompt envoyé à un outil d’IA générative se cache potentiellement une information confidentielle (données clients, documents stratégiques, code propriétaire), transférée vers des environnements que l’entreprise ne maîtrise pas. »
Autrement dit, la shadow AI n’est pas un phénomène émergent. Elle est déjà installée dans les entreprises… et les expose à de sérieux risques en matière de sécurité.
Un phénomène massif mais souvent invisible
Cette situation s’explique facilement. L’IA générative cumule trois accélérateurs puissants :
- un accès instantané via un navigateur
- une expérience utilisateur extrêmement simple
- un coût nul ou quasi nul.
La plupart des outils grand public proposent des versions gratuites, ce qui rend leur adoption immédiate. Dans les audits que nous menons, les mêmes situations reviennent systématiquement : des juristes qui analysent des contrats dans une IA publique, des équipes marketing qui uploadent des présentations internes pour en générer des synthèses, des développeurs qui collent du code propriétaire dans un assistant pour identifier un bug.
Dans un grand groupe industriel européen que nous avons accompagné récemment, l’analyse du trafic réseau a montré que plus de 18 % des collaborateurs utilisaient quotidiennement une IA générative externe, sans que la DSI ait la moindre visibilité sur les données transmises.
Ajoutons à cela un facteur déterminant : le discours très pro-IA des directions générales. Depuis deux ans, les dirigeants encouragent leurs équipes à expérimenter ces outils pour gagner en productivité. Le message est clair : tester, automatiser, aller plus vite. Le problème est que cette incitation précède souvent la définition de règles d’usage.
Pourquoi les IA grand public sont structurellement des aspirateurs à données
Mais il serait naïf de croire que ces plateformes sont de simples outils neutres. Leur modèle économique repose sur la donnée. Une étude de Surfshark montre par exemple que Gemini collecte jusqu’à 22 types de données, allant de la localisation au contenu des interactions.
Les interfaces elles-mêmes sont conçues pour encourager l’utilisateur à fournir un maximum de contexte : décrire précisément un problème, partager un document, détailler une situation. Le ton conversationnel pousse naturellement à la confidence et les systèmes relancent constamment les échanges pour prolonger la conversation.
L’objectif est simple : capter l’attention et collecter davantage de données. Au point que 16 % des utilisateurs déclarent utiliser ChatGPT comme un “confident quotidien”. Dans un cadre professionnel, un tel comportement est évidemment problématique.
Des incidents de plus en plus documentés
Les incidents ne sont plus théoriques. L’exemple le plus connu reste celui de Samsung Electronics. En 2023, des ingénieurs ont copié du code propriétaire et des notes internes dans un assistant basé sur OpenAI pour corriger un bug. Ces informations se sont retrouvées stockées sur les serveurs du fournisseur, obligeant l’entreprise à restreindre fortement l’usage de ces outils.
Dans une banque européenne que nous avons accompagnée, un audit interne a révélé qu’un collaborateur avait copié l’intégralité d’un dossier d’appel d’offres contenant des données financières et des informations clients dans une IA publique afin d’obtenir une synthèse.
Dans un cabinet de conseil, des consultants utilisaient régulièrement un assistant pour résumer des documents confidentiels de leurs clients. Dans tous ces cas, il n’y avait aucune intention malveillante. Les utilisateurs cherchaient simplement à travailler plus vite. Mais le résultat est le même : des données sensibles quittent le périmètre de l’entreprise.
Ces incidents ne sont que la partie visible du problème. Car même lorsqu’aucune fuite n’est détectée, la question centrale reste entière : qui contrôle réellement les données envoyées à ces outils ?
Nicolas Jacquey, Chief Revenue Officer chez SafeBrain








