La start-up américaine Anthropic tire la sonnette d’alarme. Ses modèles d’IA, dont Claude, ont été utilisés par des cybercriminels pour mener des attaques d’une ampleur inédite. Un rapport détaille ces détournements et appelle à une réponse collective.
Extorsion automatisée à grande échelle
L’un des cas les plus frappants concerne l’utilisation de Claude Code pour orchestrer une campagne d’extorsion. En un mois seulement, un acteur a ciblé 17 organisations dont des gouvernements, hôpitaux, services d’urgence et institutions religieuses. Les données volées comprenaient dossiers médicaux, informations financières et identifiants sensibles. Les rançons, personnalisées et psychologiquement calibrées, ont atteint jusqu’à 500 000 dollars en Bitcoin.
Une fraude nord-coréenne pilotée par l’IA
Anthropic cite également une opération nord-coréenne visant à contourner les sanctions internationales. Grâce à l’IA, des faux CV et profils techniques ont été générés, permettant à des individus sans compétences réelles de décrocher des emplois bien rémunérés à l’étranger. L’impact économique est estimé à des centaines de millions de dollars par an, finançant en partie les programmes d’armement du pays.
Ransomwares à bas coût
Un autre exemple documenté concerne le développement de kits de ransomware par un cybercriminel britannique. Conçus avec Claude, ces logiciels malveillants étaient ensuite vendus sur des forums clandestins pour 400 à 1 200 dollars. Une tendance inquiétante qui abaisse les barrières techniques et permet à des profils peu qualifiés de créer et distribuer des malwares sophistiqués.
La riposte d’Anthropic
Face à ces abus, la société affirme avoir renforcé ses mécanismes de détection, bloqué les comptes identifiés et partagé ses renseignements avec ses partenaires. Pour autant, Anthropic prévient que la lutte contre la « weaponization » de l’IA nécessite une coopération internationale accrue et l’intégration de nouveaux frameworks de sécurité dans les organisations.