La révélation d’une fuite de centaines de milliers de conversations Grok, indexées sur Google sans avertissement, illustre les dangers de l’IA générative mal maîtrisée. En parallèle, Netskope Threat Labs publie des chiffres révélant que Grok est déjà l’une des applications cloud les plus utilisées et les plus bloquées en entreprise.
Des conversations sensibles exposées
Selon Forbes, plus de 370 000 conversations Grok ont été rendues publiques et consultables en ligne à cause de la fonctionnalité « partager ». Des échanges intimes, des informations personnelles, des mots de passe et même des instructions pour fabriquer du fentanyl ou des explosifs se retrouvent indexés par Google. Une faille majeure de gouvernance, d’autant plus ironique que Musk avait récemment raillé OpenAI pour une bévue similaire.
Une adoption massive malgré les risques
Netskope Threat Labs révèle que Grok figure déjà dans le top 10 des applications cloud les plus utilisées en entreprise. Mais il est aussi l’une des plus bloquées : 25 % des organisations européennes l’avaient interdit totalement avant même la fuite, contre seulement 8,5 % qui en autorisaient un usage partiel.
Vers des politiques plus fines de contrôle
La tendance évolue : plutôt que d’interdire purement et simplement, 61 % des entreprises mettent désormais en œuvre des contrôles avancés (DLP, restrictions contextuelles, coaching en temps réel). L’affaire Grok confirme la nécessité de réguler finement les usages, plutôt que de laisser proliférer une « Shadow AI » incontrôlée.
Une vague d’adoption qui s’accélère
Au-delà de Grok, l’usage de la GenAI explose : en mai 2025, 41 % des organisations utilisaient déjà au moins une plateforme (+50 % en trois mois). Le trafic a bondi de 73 %, porté par Azure OpenAI (29 %), Amazon Bedrock (22 %) et Google Vertex AI (7,2 %). Les LLM internes progressent aussi (34 % des entreprises, Ollama en tête), tout comme les agents IA : GitHub Copilot (39 %) et déjà 5,5 % d’agents autonomes déployés sur site.
Un signal d’alerte pour la cybersécurité
Comme nous le rappelions récemment dans SNC, les risques liés aux identités numériques compromises et à la Shadow AI s’additionnent. L’affaire Grok, avec ses conversations sensibles mises en ligne, en fournit un exemple concret et marquant : les usages explosent, mais les garde-fous peinent encore à suivre.