Selon les déclarations officielles d’Amazon Web Services, l’incident, localisé dans la région US-EAST-1, a entraîné une hausse des taux d’erreurs et des latences avant un retour progressif à la normale dans la matinée. De nombreux services utilisés massivement par le grand public comme Instagram, Snapchat, Canva, Duolingo, Fortnite ou encore Airbnb n’étaient plus disponibles.
À 9 h 11 (heure de Paris), Amazon déclarait avoir « identifié une hausse des taux d’erreurs et des latences pour plusieurs services AWS dans la région US-EAST-1 ». Rapidement, le problème s’est propagé à des services critiques comme EC2, RDS, Lambda, ECS, Glue et DynamoDB, entraînant des retards, des échecs de lancement d’instances et des interruptions dans les automatisations applicatives.
Vers 11 h 01, AWS indiquait avoir « identifié une cause potentielle liée à la résolution DNS du point d’accès API DynamoDB dans US-EAST-1 » et travaillait « sur plusieurs pistes parallèles pour accélérer la reprise ». Les perturbations ont touché également les fonctionnalités globales dépendantes de cette région, notamment les mises à jour IAM et les tables globales DynamoDB.
À 12 h 35, le fournisseur assurait que « le problème sous-jacent de DNS a été entièrement résolu » et que « la majorité des opérations AWS fonctionnent désormais normalement ». Toutefois, Amazon reconnaît encore des « limitations sur certaines requêtes » et conseille aux clients de ne pas cibler de zone de disponibilité spécifique pour leurs déploiements EC2 afin de faciliter la reprise complète.
Cet incident, survenu dans la région la plus sollicitée du réseau AWS, illustre la dépendance critique de nombreux services numériques et applications SaaS à cette infrastructure. Les équipes d’Amazon poursuivent les actions de stabilisation avant un retour total à la normale.