Dans un « flash ingérence économique » publié en décembre 2025, la DGSI alerte sur les risques liés à l’usage professionnel de l’intelligence artificielle. Fuites de données, dépendance aux outils étrangers, deepfakes ou décisions automatisées non maîtrisées. Si le constat est largement partagé, le document illustre surtout une réalité plus profonde. L’IA est déjà massivement utilisée dans les entreprises, souvent sans cadre, ni stratégie, ni alternatives crédibles.
Des usages massifs sans doctrine
Premier enseignement du document : l’IA est déjà partout. Des salariés utilisent spontanément des outils d’IA générative étrangers pour traduire, rédiger ou analyser des documents, parfois sensibles, sans validation hiérarchique ni compréhension des conditions de traitement des données. La DGSI rappelle que ces outils peuvent réutiliser les données soumises pour entraîner leurs modèles, et que leur hébergement à l’étranger les expose à des législations extraterritoriales.
Ce constat met surtout en lumière l’absence, dans de nombreuses organisations, d’une doctrine claire d’usage de l’IA. L’outil arrive avant la règle, la productivité avant la sécurité, et la prise de conscience après l’incident.
L’illusion de la délégation intelligente
Autre cas cité : celui d’entreprises qui délèguent entièrement à des systèmes d’IA l’évaluation de partenaires commerciaux ou la prise de décision stratégique. La DGSI alerte sur les biais, les effets « boîte noire » et les hallucinations possibles des modèles. Là encore, l’alerte est pertinente, mais elle révèle une croyance encore très répandue dans une IA perçue comme neutre, rationnelle et infaillible.
En creux, le flash pointe un risque plus systémique : celui d’un désengagement humain, où la facilité d’usage des outils masque la complexité réelle de leur fonctionnement et de leurs limites.
L’IA comme arme d’ingérence
La DGSI insiste également sur l’utilisation offensive de l’IA par des acteurs malveillants (phishing ultra-personnalisé, deepfakes vocaux et visuels, empoisonnement de données ou attaques adversariales). Le scénario de fraude au faux dirigeant, rendu crédible par une visioconférence truquée, illustre un basculement déjà observable sur le terrain.
Sur ce point, le flash agit comme un rappel utile : l’IA n’est pas seulement un outil de productivité, mais un multiplicateur de menaces, y compris pour des entreprises bien établies.
Des préconisations prudentes, mais peu structurantes
En conclusion, la DGSI recommande d’encadrer les usages, de privilégier des solutions françaises, de limiter les données soumises aux IA, voire de recourir à des IA locales. Des conseils de bon sens, mais qui se heurtent à une réalité économique et technologique plus complexe : les alternatives souveraines restent peu nombreuses, parfois moins matures, et rarement intégrées aux environnements métiers existants.
Le flash ne traite pas non plus de la question centrale de la dépendance structurelle aux grands fournisseurs non européens, ni des arbitrages budgétaires que ces choix impliquent pour les entreprises, en particulier les PME.
Une alerte révélatrice d’un retard collectif
Au-delà de son contenu, le document agit comme un révélateur. L’État alerte aujourd’hui sur des usages qui se sont installés depuis plusieurs années, souvent par défaut, faute de cadre clair, de formation et de stratégie industrielle cohérente.
L’IA n’est plus un sujet émergent. Elle est déjà intégrée aux processus, aux décisions et aux risques. Le véritable enjeu n’est donc plus de sensibiliser, mais de structurer une gouvernance réaliste, outillée et alignée avec les contraintes économiques des entreprises. Sur ce terrain, le flash DGSI marque une étape, mais certainement pas une réponse suffisante.








