C’est un fait, l’IA agentique bouleverse autant les usages et que les menaces. Pour Raphaël Marichez, Chief Security Officer Europe du Sud et France chez Palo Alto Networks, ces nouveaux agents intelligents changent la vitesse et l’échelle des attaques. Face à eux, seule une alliance solide entre IA défensive, culture de sécurité et gouvernance des données permettra de garder la maîtrise.
SNC : Comment évolue aujourd’hui le marché de la cybersécurité en France et en Europe du Sud ? Quelles sont les priorités de vos clients ?
Raphaël Marichez : Le marché évolue bien, mais pas pour de bonnes raisons : l’intensification de la conflictualité dans le cyberespace crée un besoin considérable de protection. Les entreprises redonnent de l’importance à la souveraineté et à la sécurité de leur chaîne d’approvisionnement numérique.
Chez Palo Alto Networks, nous travaillons beaucoup avec les opérateurs et MSSP pour renforcer la confiance dans les infrastructures critiques comme dans les environnements multinationaux. Même si les entreprises avancent parfois avec prudence – voire lenteur – pour des raisons culturelles plus que technologiques, la cybersécurité est devenue un sujet de Comex.
L’IA agentique est souvent présentée comme une rupture. En quoi change-t-elle la nature des menaces ?
R.M. : Elle donne à l’attaquant une capacité de passage à l’échelle sans précédent. L’IA peut automatiser la reconnaissance, la classification des cibles et certaines phases d’intrusion, avec une vélocité inédite. Là où une attaque pouvait prendre plusieurs jours, elle peut désormais se dérouler en quelques heures, voire minutes. Pour nous, défenseurs, cela signifie qu’entre l’infiltration et l’exfiltration des données, la fenêtre de détection est minuscule. Il faut donc combiner IA et expertise humaine pour réagir avant que l’attaquant n’ait fini son travail.
Peut-on parler d’une « course à l’automatisation » entre attaquants et défenseurs ?
R.M. : Ce serait réducteur. Le vrai sujet, c’est la qualité et la maîtrise de la donnée. Les attaquants utilisent déjà les données volées pour affiner leurs campagnes de phishing ou de force brute. De notre côté, la donnée est aussi ce qui soutient l’efficacité de nos défenses. Beaucoup d’entreprises parlent d’automatisation sans avoir défini quelles données alimenteront leurs systèmes. L’IA, sans data fiable et contextualisée, n’est qu’un script amélioré.
Votre CEO a évoqué les risques liés aux navigateurs intégrant de l’IA. Pourquoi sont-ils devenus un nouveau vecteur d’attaque ?
R.M. : Parce que ces outils sont massivement utilisés par des employés non avertis, souvent en dehors du contrôle de la DSI. Des extensions de navigateur peuvent se mettre à jour sans alerte et accéder à des API génératives externes. Sans visibilité sur le navigateur, une entreprise ne peut pas savoir ce que font ses collaborateurs avec ces outils. Cela crée une zone d’ombre — un « shadow usage » — qu’il faut éclairer avant même de parler de sécurité. C’est pourquoi nous insistons sur l’observation et la gouvernance des usages.
Vous insistez beaucoup sur la part humaine de la défense. Comment instaurer une culture de sécurité à l’ère de l’IA ?
R.M. : En commençant par la formation et l’expérimentation. Il faut permettre aux salariés de tester l’IA dans un cadre sûr, avec des données non sensibles, pour comprendre ce qu’elle fait et ce qu’elle ne fait pas. C’est la seule manière d’identifier les usages réellement utiles et d’éviter les échecs : selon certaines études, 95 % des projets d’IA échouent faute d’adoption par les utilisateurs.
Faut-il repenser la gouvernance de l’IA en entreprise ?
R.M. : Oui, totalement. Certaines entreprises ont déjà mis en place des comités de validation de l’IA réunissant le juridique, les RH, la sécurité et la DSI. C’est une bonne pratique. Mais dans la plupart des cas, il n’y a tout simplement pas de gouvernance. Et cela crée des situations aberrantes : au sein d’une même entreprise, certains responsables se pensent protégés grâce au DLP ou aux pare-feux, quand d’autres laissent circuler des données sensibles via des agents IA sans contrôle. Un agent IA a les mêmes droits que l’utilisateur qui l’emploie : s’il scanne un réseau pour rédiger un résumé de réunion, il peut exposer des données confidentielles sans même qu’on s’en rende compte.
Quelles bonnes pratiques recommandez-vous pour une adoption sécurisée de l’IA ?
R.M. : La première étape, c’est la visibilité : savoir quels outils sont utilisés, et pour quoi. Ensuite, il faut catégoriser les usages : autorisés, restreints, ou interdits, puis rediriger les flux vers des environnements sécurisés. Chez Palo Alto Networks, nous intégrons désormais cette approche dans notre plateforme de sécurité, pour évaluer la robustesse des modèles IA avant de les déployer et éviter qu’ils ne deviennent un point d’entrée.
Quels signaux faibles voyez-vous émerger pour 2026 ?
R.M. : On observe déjà des attaques qui ne reposent plus sur des vulnérabilités logicielles, mais sur la tromperie. Les deepfakes vocaux ou textuels permettent de se faire passer pour un supérieur hiérarchique et d’obtenir un virement ou des accès sensibles. Demain, ces attaques seront multimodales : voix, vidéo, texte. Il faudra donc suivre le cycle de vie complet de l’identité numérique dans l’entreprise — humaine ou non humaine. Aujourd’hui, on compte environ 80 identités machine pour une seule identité humaine ; un ratio vertigineux. Et avec les agents IA, ce chiffre va exploser. La maîtrise des identités et des privilèges sera le prochain grand champ de bataille.








