L’usage non encadré des IA génératives dans les entreprises fait émerger un nouveau type de risque, moins visible que les cyberattaques classiques, mais tout aussi structurant. Dans les domaines financiers, fiscaux et de conformité, des décisions critiques sont de plus en plus prises sur la base de réponses automatisées erronées, avec des impacts déjà mesurables.
Des décisions critiques appuyées sur des réponses non maîtrisées
Dans de nombreuses entreprises, les IA génératives généralistes sont désormais utilisées pour obtenir des réponses rapides sur des sujets complexes, comme la fiscalité, la paie ou la gestion financière. Ces usages, souvent informels et peu encadrés, reposent sur une confiance excessive accordée à des systèmes dont les limites sont encore mal comprises.
Une étude menée auprès de 500 professionnels du chiffre en France, commandée par l’éditeur Dext, met en lumière les dérives liées à l’usage non encadré des IA génératives pour des décisions financières et fiscales. Plus d’un tiers d’entre eux indiquent avoir connaissance de pertes financières liées à des décisions prises à partir de conseils générés par l’IA, qu’il s’agisse d’erreurs fiscales, de pénalités ou de problèmes de conformité.
Un nouveau visage du facteur humain
Ces dérives rappellent des mécanismes bien connus en cybersécurité. Comme pour le phishing ou l’ingénierie sociale, le risque ne vient pas d’une faille technique, mais d’une mauvaise appréciation de la fiabilité de l’information. Les réponses produites par l’IA, formulées de manière convaincante, sont intégrées dans les processus de décision sans validation suffisante. Les professionnels interrogés constatent une hausse des situations où des décisions ou des arbitrages sont remis en cause sur la base de contenus générés automatiquement, y compris lorsqu’ils sont incomplets ou erronés. Ces usages interrogent également les régulateurs européens, qui alertent sur la nécessité de limiter les décisions automatisées non supervisées dans les domaines sensibles.
Des erreurs fréquentes, un coût invisible
Sur le terrain, les erreurs liées à ces usages sont désormais récurrentes. Elles concernent notamment l’interprétation des dépenses, les déclarations fiscales, la planification financière ou la gestion de la paie. Leur correction mobilise un temps significatif, souvent sous-estimé. Près d’un tiers des professionnels concernés indiquent consacrer plusieurs heures par semaine à corriger des décisions prises à partir de réponses générées par l’IA, annulant en partie les gains de productivité initialement recherchés.
Des impacts directs sur la conformité et la trésorerie
À moyen terme, ces pratiques exposent les entreprises à des risques accrus. Insolvabilité, sanctions financières, contrôles renforcés ou perturbations de trésorerie figurent parmi les scénarios redoutés si ces usages continuent de se diffuser sans cadre clair. Pour les acteurs de la sécurité et de la gouvernance IT, ces constats illustrent un angle mort encore peu traité. La cybersécurité ne se limite plus à la protection des systèmes, mais englobe désormais la qualité des décisions prises à partir d’outils numériques non maîtrisés.
Vers un encadrement des usages de l’IA en entreprise
Face à ces dérives, les professionnels appellent à un encadrement plus strict des usages de l’IA générative dans les domaines à forts enjeux financiers et juridiques. Ecarter ces outils n’est pas le but recherché, mais en restreindre leurs usages aux cas appropriés, avec une supervision humaine systématique. Ce signal faible, remonté par des acteurs confrontés quotidiennement aux conséquences de décisions erronées, souligne l’émergence d’un nouveau risque cyber, situé à la frontière entre gouvernance, conformité et facteur humain.








