Accueil Cyberattaque Google déjoue une vaste tentative de clonage de Gemini et signale des...

Google déjoue une vaste tentative de clonage de Gemini et signale des hackers étatiques

Google annonce avoir contré une vaste tentative de clonage de son modèle d’IA Gemini, alors que des groupes de hackers, potentiellement appuyés par des États, exploitent de plus en plus les capacités des grands modèles pour accélérer campagnes et attaques.

Tentative de clonage et menace sur l’IA

Google a révélé qu’une campagne coordonnée avait visé son modèle d’intelligence artificielle Gemini, dans le but d’en reproduire le comportement en passant par une collecte massive de réponses. Selon la firme, les attaquants ont utilisé plus de 100 000 requêtes successives pour tenter d’extraire suffisamment d’informations afin de reconstruire un clone du modèle d’IA. L’entreprise affirme avoir bloqué et neutralisé ces actions, qui s’apparentent à une forme d’« attaque par distillation » — une technique consistant à tenter d’obtenir les structures internes d’un modèle via des sollicitations répétées — et à les exploiter pour des usages non autorisés. Dans un rapport publié par son Google Threat Intelligence Group (GTIG) sur le blog Google Cloud, l’entreprise détaille les techniques observées et confirme une hausse des tentatives d’exploitation des modèles d’IA par des acteurs malveillants, y compris étatiques.

Hackers étatiques et réutilisation de l’IA

Au-delà de cette tentative de clonage, Google a mis en garde contre un usage croissant des grandes intelligences artificielles par des groupes de hackers, y compris potentiellement liés à des États. Ces acteurs exploitent des modèles comme Gemini pour accélérer des campagnes d’hameçonnage, affiner des opérations de renseignement ou générer des composants de logiciels malveillants. Le fait que de telles actions soient organisées à grande échelle souligne une évolution du paysage des cybermenaces où l’IA, loin d’être seulement un outil défensif, est devenue une ressource stratégique pour des campagnes malveillantes.

Enjeux pour les entreprises et infrastructures IA

Ces incidents rappellent que l’intégration croissante de l’IA dans les services cloud et les plateformes d’entreprise s’accompagne de nouveaux risques d’exploitation technique. Les techniques telles que l’extraction de modèle ou l’exploitation de fonctionnalités par des requêtes automatisées peuvent viser non seulement la propriété intellectuelle des fournisseurs, mais aussi ouvrir des portes à des attaques sophistiquées si elles ne sont pas détectées ou mitigées rapidement.

Google affirme que ses systèmes ont identifié et stoppé ces activités en temps réel, limitant les risques d’exploitation. Néanmoins, ce type d’incident rappelle que si les grandes plateformes IA gagnent en importance dans les architectures cloud modernes, elles deviennent aussi des terrains d’attaque privilégiés, nécessitant des stratégies de protection adaptées et une vigilance accrue des décideurs.