À mesure que les modèles d’IA générative passent du stade expérimental à des usages opérationnels, ils deviennent une nouvelle surface d’attaque pour les cybercriminels. Une campagne récente, baptisée Bizarre Bazaar, illustre ce basculement. Des attaquants exploitent des endpoints LLM exposés ou mal sécurisés pour détourner des ressources, monétiser des accès et parfois extraire des données sensibles.
Des endpoints IA exploités comme des services classiques
Révélée par des chercheurs en sécurité, l’opération Bizarre Bazaar cible directement des endpoints de modèles de langage accessibles sur Internet, souvent laissés ouverts pour faciliter les phases de test ou d’intégration. APIs sans authentification forte, serveurs auto-hébergés mal protégés ou environnements de développement exposés constituent autant de points d’entrée exploités à grande échelle.
Les attaquants procèdent de manière méthodique. Ils scannent le Web à la recherche de services LLM accessibles, valident les configurations faibles, puis exploitent ces accès pour lancer leurs activités. Des milliers de tentatives ont ainsi été observées sur des honeypots, révélant une campagne structurée plutôt qu’un simple abus opportuniste.
Vol de ressources, revente d’accès et exfiltration de données
Une fois l’endpoint compromis, les usages malveillants se multiplient. Les ressources de calcul sont détournées pour du cryptomining, des accès API non autorisés sont revendus sur des places de marché clandestines, et les attaquants peuvent également collecter des données issues des prompts et des historiques de conversations. Dans certains cas, ces endpoints servent aussi de point d’appui pour tenter des mouvements latéraux vers d’autres systèmes, notamment via des serveurs compatibles avec des protocoles d’orchestration de modèles. L’IA ne constitue alors plus seulement une cible, mais un vecteur potentiel d’extension de la compromission.
Une menace aux impacts multiples pour les organisations
Contrairement à une attaque classique sur une API, l’exploitation d’un endpoint LLM peut entraîner des coûts directs élevés. L’inférence de modèles de grande taille consomme des ressources importantes, et leur détournement peut rapidement générer des factures imprévues. À cela s’ajoutent les risques de fuite d’informations sensibles et d’atteinte à la confiance, notamment lorsque des données internes transitent par ces interfaces.
Cette réalité met en lumière un angle mort fréquent dans les déploiements d’IA. Des services considérés comme « techniques » ou temporaires se retrouvent exposés, sans bénéficier du même niveau de protection que des applications métiers plus traditionnelles.
L’IA, nouvelle frontière du risque cyber
L’opération Bizarre Bazaar s’inscrit dans une tendance plus large. Avec la montée en puissance des usages d’IA générative, les architectures se complexifient et les frontières entre environnements internes et services exposés s’estompent. Des pratiques autrefois tolérées comme une exposition rapide d’un service, une configuration minimale ou même des contrôles d’accès légers, prennent une tout autre dimension lorsqu’elles concernent des systèmes capables de traiter et produire des données à grande échelle.
Ce type de campagne rappelle que l’industrialisation de l’IA ne se limite pas aux performances ou aux cas d’usage. Elle impose aussi de repenser la sécurité des interfaces IA comme des composants critiques du système d’information, au même titre que les applications et les API traditionnelles.








