À l’occasion de re:Invent, AWS a multiplié les annonces autour de l’IA générative et des agents autonomes, tout en rappelant que la modernisation du patrimoine applicatif reste un prérequis pour permettre aux entreprises d’en tirer pleinement parti. À l’occasion de re:Invent, Stephan Hadinger, directeur des technologies d’AWS France, revient sur les annonces clés du groupe : agents « frontières » autonomes, gouvernance renforcée des modèles, multicloud pragmatique et accélération massive de la modernisation applicative.
Solutions Numériques & Cybersécurité (SNC) :
L’an dernier, le cloud était au centre de toutes les conversations. Cette année, c’est clairement l’IA générative qui s’impose comme fil conducteur de re:Invent. Est-ce que cela signifie que le cloud est désormais un sujet mature, et que l’on passe à autre chose ?
Stephan Hadinger (SH) :
Le cloud a gagné en maturité, mais il reste encore énormément à faire. D’après les derniers chiffres Gartner, seulement 20 % des applications dans le monde sont dans le cloud. Les 80 % restantes sont encore on-premise, souvent avec une dette technique importante. La modernisation reste donc un sujet central : migrer les applications, libérer du temps et du budget pour pouvoir se concentrer sur la data, l’IA générative et l’IA agentique.
C’est dans ce contexte qu’arrivent les annonces autour d’AWS Transform, qui accélère l’audit et la modernisation des applications, qu’elles soient en mainframe, .NET ou Java.
SNC : Avec la multiplication des fonctionnalités IA, on parle d’une vingtaine rien que cette année, comment éviter que cette sophistication ne crée de nouvelles complexités ?
SH :
Notre logique est d’offrir du choix. C’est déjà vrai pour les bases de données : nous en proposons une quinzaine, non pas pour complexifier, mais parce qu’aucune technologie ne couvre tous les usages.
Pour l’IA générative, c’est pareil : il n’y aura jamais un modèle unique qui répond à tout. Amazon Bedrock propose aujourd’hui près de 250 modèles issus de 34 fournisseurs. Notre rôle — et celui de nos partenaires comme Capgemini, Devoteam ou Sia Partners — est d’aider les clients à choisir le bon modèle selon trois critères : performance, coût et latence.
SNC : Comment éviter que les agents IA ne deviennent une sorte de « boîte noire » dans l’entreprise ?
SH :
C’est un point crucial. D’abord, donner une simple instruction au modèle du type “ne fais pas ceci” ne suffit pas. C’est pour cela que nous introduisons Agent Policy, un système indépendant qui vérifie chaque action d’un agent, comme un garde-fou mathématique.
Au-delà, il faut superviser en permanence les performances : un modèle peut être parfait à J0 puis dériver après trois ou six mois. Nous avons donc lancé des outils de monitoring continu, qui échantillonnent les requêtes et détectent toute dégradation de performance afin de déclencher un nouveau fine-tuning si nécessaire.
SNC : Le partenariat Amazon–Google bouscule un peu l’idée d’être 100 % sur un seul cloud. Les entreprises pensent-elles désormais « multicloud » dès le départ ?
SH :
La plupart l’ont toujours fait, parfois par choix, parfois par contrainte — notamment en cas de rachats d’entreprises utilisant d’autres clouds. Un modèle fréquemment observé : environ 80 % des applications sur un cloud principal, et le reste sur un cloud alternatif pour une filiale ou pour certains outils métier (comme Google Workspace).
L’accord avec Google consiste avant tout à créer une connectivité dédiée entre Google Cloud et AWS afin de garantir sécurité, disponibilité et performance, sans passer par Internet.
SNC : Une IA devient aussi une surface d’attaque. Comment AWS garantit-il que les actions des modèles — notamment Amazon Nova — sont toujours contrôlées et tracées ?
SH :
En préambule, il faut rappeler qu’il y a toujours trois acteurs : le fournisseur du modèle, l’opérateur cloud AWS et le client, qui reste responsable du prompting et de l’usage de l’IA, notamment avec les exigences réglementaires comme l’AI Act. Dans le cas d’Amazon Nova, c’est Amazon qui développe le modèle. Nous aimons également travailler avec Anthropic, qui a des standards très élevés en matière de qualité des données d’apprentissage, d’éthique ou d’absence de biais. Nous investissons beaucoup pour garantir qu’il n’y a pas de données sous copyright, par exemple dans la génération d’images. Cela permet aussi d’offrir une couverture juridique : si un client se retrouve dans un contentieux lié à la propriété intellectuelle, nous l’indemnisons.
Côté AWS, nous garantissons la confidentialité : les environnements sont isolés entre les clients, et les opérateurs AWS n’ont aucun accès aux données, ni aux prompts ni aux réponses. Les fournisseurs de modèles n’y ont pas accès non plus, qu’il s’agisse de Mistral, Anthropic, OpenAI, Meta ou d’autres. Ils ne savent donc pas ce que les clients font avec leurs modèles. C’est un élément essentiel du contrat de confiance, car les entreprises peuvent confier des informations extrêmement sensibles à ces modèles, parfois même de la propriété intellectuelle.
À cela s’ajoutent les guardrails intégrés à Amazon Bedrock, qui permettent de définir précisément quelles questions et quels sujets sont autorisés, ainsi que les types de réponses acceptés. Par exemple, on peut vouloir empêcher un chatbot d’utiliser du vocabulaire offensant — sauf lorsqu’il s’agit d’extraire ce type de contenu pour de la modération. Ce n’est donc pas à nous de décider ce qui doit être interdit : ce sont les clients qui définissent leurs règles, et le contrôle s’applique à la fois au prompt et à la réponse.
Nous proposons également un système basé sur le raisonnement automatisé : les entreprises peuvent envoyer leurs politiques internes, qui sont converties en règles formelles. Le système vérifie ensuite que ces règles sont respectées dans les réponses produites par un modèle. Cela intéresse particulièrement les secteurs comme la finance, la banque, l’assurance ou les RH, pour éviter les hallucinations ou les réponses contraires aux politiques internes. Il n’existe pas de solution magique, mais tout cela fonctionne à plusieurs niveaux.
SNC : Parmi les nombreuses annonces, quelles sont celles qui auront le plus d’impact métier ?
SH : Il y a énormément d’annonces, notamment autour des puces, de l’infrastructure et des datacenters, mais l’une des plus importantes concerne les « agents frontières », lancés pour Kyro, pour la sécurité et pour le DevOps. Jusqu’à présent, les agents fonctionnaient sur un mode classique : on leur demandait de faire quelque chose, ils se connectaient aux différents systèmes et réalisaient les actions nécessaires. Avec ces nouveaux agents, on franchit une étape supplémentaire : ils agissent de manière autonome. Ils se réveillent régulièrement, de jour comme de nuit, pour aller vérifier que la production fonctionne bien, en parcourant les journaux ou en contrôlant les modifications appliquées. Ils réalisent aussi des tests de sécurité ou des tests de pénétration.
L’idée n’est pas celle d’une « armée de l’ombre », mais bien de disposer d’un groupe d’agents capables de vérifier en continu que tout se passe correctement. Cela représente une aide considérable pour nos clients, à la fois dans le développement des applications, pour s’assurer du respect des règles de sécurité, et ensuite en production, une fois que les applications sont déployées.








