Accueil IA G7 Cyber Expert Group : l’IA devient un risque systémique pour la...

G7 Cyber Expert Group : l’IA devient un risque systémique pour la cybersécurité financière

Groupe d'experts du G7 sur la cybersécurité (G7 Cyber Expert Group - CEG) et intelligence artificielle

Le G7 Cyber Expert Group (CEG) publie une mise en garde commune sur l’impact croissant de l’intelligence artificielle, notamment la GenAI et l’agentic AI, sur la cybersécurité du système financier mondial. 

Le G7 Cyber Expert Group (CEG) alerte sur l’impact croissant de l’intelligence artificielle dans le secteur financier. Le groupe de travail international qui coordonne les politiques et les stratégies de cybersécurité entre les pays membres du G7, en particulier dans le secteur financière, souligne que l’IA, et en particulier la GenAI et l’agentic AI, agit désormais comme un facteur d’accélération, à la fois pour la défense cyber et pour les menaces. Sans créer de nouvelles obligations réglementaires, le CEG appelle États, institutions financières et fournisseurs technologiques à anticiper une évolution rapide du risque systémique.

Une technologie ambivalente : soutien opérationnel et nouveaux vecteurs d’attaque

Le CEG constate que l’IA apporte des améliorations concrètes aux dispositifs de cybersécurité. Les outils de détection d’anomalies gagnent en précision, les équipes SOC peuvent automatiser des tâches à faible valeur ajoutée, et les mécanismes anti-fraude progressent dans l’identification de signaux faibles, notamment dans le cas des deepfakes ou de l’usurpation d’identité. L’IA facilite également la surveillance des tiers et la hiérarchisation des vulnérabilités.

Cette dynamique s’accompagne toutefois de risques structurants. L’IA permet aux acteurs malveillants de produire des attaques plus ciblées, plus rapides et plus difficiles à détecter : contenus frauduleux réalistes, reconnaissance automatisée, malwares adaptatifs. Les modèles eux-mêmes constituent une surface d’attaque : données compromises, empoisonnement, manipulation de prompts ou extraction non autorisée d’informations. La dépendance croissante à un nombre limité de fournisseurs d’IA ajoute un enjeu supplémentaire, avec la possibilité d’incidents ayant un impact étendu.

Revoir la gouvernance du risque et renforcer l’expertise interne

Pour le G7, l’enjeu principal consiste à intégrer pleinement les risques liés à l’IA dans les dispositifs existants de gestion du risque cyber. Cela inclut la gouvernance des modèles, la qualité des données utilisées, la supervision humaine et la capacité des organisations à identifier rapidement les incidents spécifiques à l’IA.
Les autorités de supervision sont invitées à développer leurs compétences internes et à maintenir un dialogue étroit avec le secteur, afin d’accompagner l’évolution des pratiques sans freiner l’innovation.

Le communiqué renvoie enfin vers plusieurs référentiels déjà disponibles, ANSSI, NIST, MITRE ATLAS, OWASP, qui peuvent servir de socle à une adoption plus structurée, à la fois pragmatique et sécurisée, de l’intelligence artificielle dans le secteur financier.