Accueil IA « Accompagner par la culture : c’est la seule réponse durable au...

« Accompagner par la culture : c’est la seule réponse durable au Shadow AI », Matt Ausman de Zebra Technologies

Shadow IA maitrise et contrainte zebra technologies credit chatgpt

Le Shadow AI s’impose comme un nouveau défi majeur pour les DSI, entre usages non contrôlés, exposition des données et fragmentation des pratiques, Matt Ausman, Chief Information Officer de Zebra Technologies, livre une analyse sans détour. Gouvernance, acculturation, outils, rôles émergents : dans cet entretien, il explique pourquoi la réponse au Shadow AI ne peut pas être uniquement technologique, mais doit avant tout reposer sur la culture, la pédagogie et l’alignement du comité exécutif. Une vision pragmatique, ancrée dans le réel, confrontée à l’industrialisation rapide des usages de l’IA.

Solutions Numériques & Cybersécurité :
Lorsque vous observez ce qui se passe sur le terrain, quels usages de la Shadow AI posent aujourd’hui le plus de problèmes aux DSI ? Y a-t-il des outils ou des pratiques particulièrement préoccupantes ?

Matt Ausman :
Trois sujets me viennent immédiatement à l’esprit.

« En entreprise, la donnée n’est pas un confort : c’est un actif stratégique. »

Le premier concerne l’utilisation, par les collaborateurs, de versions gratuites et/ou personnelles de logiciels. Lorsqu’un service est gratuit, c’est qu’il se rémunère autrement, le plus souvent via les données des utilisateurs. Dans la sphère privée, nous acceptons assez facilement de céder nos données — il suffit de penser aux réseaux sociaux. Mais en entreprise, la donnée est un actif stratégique.

Le fournisseur ou l’éditeur d’IA peut aussi, sans le vouloir, exposer des données via une cyberattaque ou des contrôles de sécurité insuffisants. Lorsqu’une entreprise fait appel à un prestataire tiers pour des outils d’IA, elle évalue normalement les risques, les garanties et les mécanismes de protection. Ce n’est évidemment pas le cas lorsqu’un collaborateur télécharge une version gratuite trouvée sur Internet.

J’ai vu des études indiquant que 13 à 45 % des requêtes adressées à des outils de GenAI ont potentiellement — ou réellement — exposé des données clients ou sensibles, ou encore des prompts présentant un risque de sécurité ou de conformité.

Le deuxième point concerne les outils de développement. Une grande partie de la propriété intellectuelle et des données clients d’une organisation peut être exposée et ingérée par le fournisseur d’IA, puisque ces outils servent à développer des applications utilisées par les collaborateurs et les clients.

Il existe aussi un risque de sécurité lorsque des outils de développement non autorisés sont utilisés sans protections suffisantes : malware intégré, spyware, virus ou vulnérabilités exploitables par des acteurs malveillants pour accéder aux systèmes et aux données de l’entreprise.

Enfin, le troisième sujet est celui de la fragmentation des données. Autrefois, on générait des rapports, on les stockait en interne, on les partageait et on les modifiait dans le cadre d’un processus bien défini. Aujourd’hui, l’accès à des volumes massifs de données est quasi instantané. Il faut donc s’assurer que ces données ne soient pas altérées, même involontairement, d’une manière qui créerait des problèmes plus tard.

SNC :
Comment les collaborateurs réagissent-ils lorsque vous abordez le sujet du Shadow AI ? Craignent-ils des restrictions ou revendiquent-ils une forte autonomie ?

M.A. :
On observe les deux réactions. Certains utilisateurs très avancés veulent absolument conserver leur autonomie et rester à la pointe. Pour autant, viser une approche « leading edge » plutôt que « bleeding edge » me paraît plus pertinent.

« Donner des outils standards à 80 % des équipes crée plus de valeur que des outils ultra-nouveaux pour 10 %. »

Avec la vitesse à laquelle les modèles évoluent, faire adopter des outils standards par 80 % de l’organisation crée beaucoup plus de valeur au quotidien que de donner accès à des outils ultra-nouveaux à seulement 10 % des équipes.

J’ai lu un rapport indiquant que 78 % des utilisateurs d’IA apportent leurs propres outils au travail, un chiffre qui monte à 80 % dans les PME. Nous avons connu le BYOD (Bring Your Own Device), puis le BYO logiciels de partage de fichiers et extensions de navigateur, puis le BYO réseau avec le passage massif au télétravail pendant la pandémie, et la nécessité de renforcer la sécurité pour des collaborateurs connectés via leur Wi-Fi domestique.

La majorité des collaborateurs veulent bien faire, respecter les règles et gagner en efficacité. Alors pourquoi le Shadow IT — et désormais le Shadow AI — existe-t-il ? Tout simplement parce que l’IT ne peut pas suivre le rythme du business. Elle ne pourra jamais tout faire, mais elle doit fournir les bons garde-fous et les bons outils.

SNC :
Comment accompagner le développement des compétences en IA sans transformer la DSI en « police de l’IA » ?

M.A. :
Je vois les choses un peu différemment. Nous devons former les collaborateurs aux compétences de base, leur donner les clés pour comprendre les usages tactiques de l’IA, mais aussi une vision plus large.

Revenons vingt ans en arrière, à l’arrivée du web, de l’email, du chat ou de la visioconférence. Il ne s’agissait pas seulement d’apprendre à utiliser des outils, mais de comprendre ce que la révolution PC/Internet allait permettre. Et c’est ce qui a posé les fondations de l’économie numérique actuelle.

L’IA redonne une impulsion forte à la montée en compétences, à l’apprentissage continu et à l’évolution des comportements.

Le rôle de l’IT est aussi de poser des garde-fous pour protéger l’entreprise, ses données et ses systèmes. Chez Zebra, les outils d’IA sont désormais bloqués par défaut, mais un processus permet aux collaborateurs de demander un accès pour tester ou piloter de nouveaux outils. Il est très rare que nous refusions totalement un pilote. En revanche, tous les pilotes ne débouchent pas sur une validation globale. Avoir 100 outils de développement approuvés n’est pas une solution, mais n’en avoir qu’un seul ne l’est pas non plus.

SNC :
Concrètement, quels leviers opérationnels un DSI peut-il activer rapidement pour reprendre le contrôle : catalogue interne d’outils IA, environnements sandbox, gouvernance dédiée ?

M.A. :
Tout commence par la culture. Si les collaborateurs veulent contourner les règles, ils trouveront toujours un moyen — ordinateur personnel, envoi par email, etc. Presser un ballon à un endroit, c’est le voir ressortir ailleurs.

« Sans fondations solides, impossible de construire des usages IA durables. »

Il faut d’abord un message clair, porté au-delà du DSI, par le CEO et les membres du comité exécutif, expliquant pourquoi la sécurité de l’entreprise est essentielle. Il faut aussi montrer ce qu’est un « mauvais usage », pas seulement l’expliquer. Ces messages et ressources doivent être accessibles afin de se transformer en apprentissage, puis en changement de comportement.

Ensuite, il faut mettre en place les bons outils et processus avant de bloquer. Chez nous, il s’est écoulé plus d’un an avant de bloquer les sites d’IA. Nous alertions sur les risques, mais sans encore disposer des outils ou des processus pour proposer des alternatives. Une fois ces éléments en place, le blocage par défaut est devenu logique.

SNC :
Parmi les approches que vous avez observées, lesquelles produisent aujourd’hui des résultats mesurables ?

M.A. :
La première, c’est la compréhension globale et la sensibilisation. Les collaborateurs doivent comprendre ce que font les modèles d’IA de base. Ils doivent pouvoir expérimenter, même si ces tests ne créent pas immédiatement de valeur. Les fondations d’une maison ne sont pas visibles, mais sans elles, impossible de construire une cuisine ou une salle de bain sans fissures.

Ensuite, il faut travailler en profondeur sur les processus. Nous avons commencé par des domaines à forte volumétrie — personnes, transactions — et à forte adéquation entre culture, données et outils.

Par exemple, les comptes fournisseurs : volumes élevés, processus répétables, données structurées entre les factures entrantes et l’ERP, et une culture favorable. Comme dans beaucoup de secteurs, il existe des tensions sur les effectifs, et ces postes servent souvent de tremplin vers d’autres fonctions financières. Les équipes ont donc tout intérêt à automatiser intelligemment leur travail grâce à l’IA.

SNC :
Pensez-vous que les DSI devraient créer un rôle dédié — responsable IA, AI steward — pour piloter ces nouveaux risques ?

M.A. :
Les discussions autour du poste de Chief AI Officer ont émergé vers 2016-2017 et ont depuis évolué vers toute une palette de rôles liés à la stratégie et à la technologie. Ces fonctions sont importantes et illustrent bien comment l’IA crée de nouveaux métiers.

Chez Zebra, nous recrutons actuellement un responsable de la transformation IA. Nous avons décidé de passer d’une approche bottom-up à une approche top-down, en réalisant que cela ne pouvait pas être fait « à temps partiel ».

Cette personne, issue d’une équipe métier, pilotera un conseil IA à l’échelle de l’entreprise, chargé de partager les idées, de prioriser les initiatives et de définir la gouvernance. Elle conduira aussi la gestion du changement, ainsi que le développement et l’adoption des usages, en s’appuyant sur des équipes relais dans chaque fonction. Cela s’inscrit pleinement dans notre engagement à connecter les équipes terrain grâce à l’IA, au service des collaborateurs, des clients et des partenaires.

SNC :
Dans vos équipes, quels usages concrets du Shadow AI observez-vous : prise de notes, génération de code, analyses automatisées ? Qu’est-ce qui vous surprend le plus ?

M.A. :
Au début, nous avons vu apparaître des outils de prise de notes et d’enregistrement automatique des réunions, ainsi que des usages de GenAI pour le code et l’analyse. Cela a parfois pu ressembler à un jeu du « chat et de la souris ».

Mais grâce à notre culture, les collaborateurs nous signalent ce qui leur semble problématique. Certains nous ont alertés sur des outils tiers de prise de notes ou de génération de code, ce qui nous a permis de les bloquer et de proposer de meilleures alternatives.

Dans tous les cas, nous avons rapidement défini des solutions standards à l’échelle de l’entreprise et les avons déployées, voire rendues obligatoires.

SNC :
Comment distinguer une expérimentation saine d’un usage qui devient risqué ? Quels signaux faibles surveillez-vous ?

M.A. :
Je me pose une question simple : quelle est la taille de la zone d’impact ?

Si quelque chose tourne mal, l’impact est-il interne ou visible côté client ? Un processus critique peut-il être affecté ? Les équipes juridiques et sécurité ont-elles été consultées ?

« La bonne question n’est pas “que peut-on faire ?” mais “quelle est la zone d’impact ?”. »

Nous disposons heureusement d’un environnement sandbox sécurisé pour les usages à risque. Je ne le répéterai jamais assez : la culture est essentielle pour encourager l’expérimentation tout en laissant les messages de sécurité guider les comportements.

SNC :
Avez-vous déjà rencontré une situation où un outil de Shadow AI a créé un risque majeur ?

M.A. :
Pas encore, et j’espère que cela n’arrivera pas. Mais nous devons nous y préparer.

Avec les assistants IA, il y a encore un humain dans la boucle. À mesure que nous avançons vers l’IA agentique, les tests, les validations et la gouvernance deviennent encore plus critiques. L’objectif n’est pas d’éliminer tout risque — il y en aura toujours avec des humains, qui peuvent se tromper, être négligents ou corrompus — mais d’anticiper, de limiter les risques et de proposer des alternatives sûres.