Accueil Cybersécurité Amazon Bedrock, LangSmith… quand l’IA devient une nouvelle surface d’attaque

Amazon Bedrock, LangSmith… quand l’IA devient une nouvelle surface d’attaque

De nouvelles failles identifiées dans plusieurs plateformes d’IA, dont Amazon Bedrock, révèlent une surface d’attaque encore largement sous-estimée. Elles font écho à d’autres incidents récents liés à l’IA en production, qui mettent en lumière des enjeux persistants de contrôle et de sécurité.

Une nouvelle surface d’attaque liée aux agents IA

Plusieurs vulnérabilités identifiées dans des plateformes d’intelligence artificielle, dont Amazon Bedrock, LangSmith et SGLang, mettent en lumière un angle encore peu exploré de la sécurité : les environnements d’exécution de code utilisés par les agents. Ces systèmes permettent aux modèles d’interagir avec des outils, de manipuler des données en temps réel ou d’automatiser certaines actions. Mais cette capacité ouvre aussi la voie à de nouvelles attaques lorsque ces environnements sont mal isolés.

Selon les chercheurs de BeyondTrust, certaines configurations permettent d’exploiter des requêtes DNS sortantes pour exfiltrer des données sensibles ou établir des canaux de communication à distance, contournant les mécanismes d’isolation attendus.

Des vulnérabilités qui dépassent le simple cadre technique

Dans certains cas, ces failles peuvent permettre l’exécution de commandes à distance ou l’accès à des ressources internes, en fonction des droits associés aux agents. L’exposition ne tient donc pas uniquement à la vulnérabilité elle-même, mais aussi aux niveaux de privilèges accordés et aux configurations mises en place. Ces scénarios témoignent d’une évolution plus profonde, où les agents ne sont plus de simples interfaces, mais des composants actifs capables d’agir sur des systèmes et des données.

Un écho aux incidents récents autour de l’IA en production

Ces vulnérabilités font écho à d’autres incidents récents impliquant l’usage de l’IA en environnement réel. Début mars, Amazon a ainsi été amené à répondre à des interrogations autour de pannes potentiellement liées à du développement assisté par IA. Si l’entreprise a écarté un lien direct avec ses outils, ces événements ont néanmoins mis en lumière des problématiques communes : des systèmes capables de produire ou d’exécuter du code, mais encore insuffisamment maîtrisés dans leurs effets.

Dans les deux cas, c’est moins la technologie elle-même qui est en cause que son intégration dans des chaînes opérationnelles complexes, où validation, contrôle et supervision restent parfois insuffisants.

Des architectures encore en phase de maturation

Les architectures d’IA agentique introduisent de nouvelles couches techniques (orchestration, exécution de code, accès aux outils) qui ne bénéficient pas encore du même niveau de maturité que les environnements applicatifs traditionnels. Les mécanismes de sandbox, en particulier, peuvent présenter des limites lorsqu’ils reposent sur des hypothèses d’isolation incomplètes ou mal configurées.

Un enjeu croissant pour les équipes sécurité

Face à ces évolutions, les équipes de cybersécurité doivent adapter leurs approches. Les modèles d’IA, et plus encore les agents, doivent désormais être considérés comme des entités à part entière, avec des droits, des accès et des capacités d’action. Leur sécurisation passe par un contrôle plus strict des identités, des permissions et des flux, dans un contexte où l’IA devient progressivement un acteur opérationnel au sein des systèmes d’information.