Accueil Infrastructure Meta et AMD scellent un partenariat géant pour l’infrastructure IA

Meta et AMD scellent un partenariat géant pour l’infrastructure IA

Meta et AMD annoncent un partenariat pluriannuel et multi-générations autour de l’infrastructure IA, avec un déploiement pouvant atteindre 6 gigawatts de GPU Instinct. Non chiffré officiellement, l’accord est estimé par plusieurs médias entre 60 et 100 milliards de dollars et s’accompagne d’un mécanisme financier atypique, qui pourrait faire de Meta un actionnaire significatif d’AMD.

Un partenariat industriel à l’échelle du gigawatt

AMD et Meta ont officialisé, le 24 février 2026, une « expanded strategic partnership » pour déployer jusqu’à 6 GW de GPU AMD Instinct au sein de la prochaine génération d’infrastructures IA de Meta. Les deux groupes mettent en avant une coopération qui ne se limite pas à l’achat de composants, mais vise un alignement plus profond des feuilles de route « silicon, systems and software », avec un objectif assumé de plateformes optimisées pour les charges de travail de Meta.

Co-design matériel et logiciel : vers des infrastructures IA sur mesure

Sur le plan technique, les premières livraisons destinées à soutenir un premier gigawatt sont annoncées pour le second semestre 2026, avec un GPU custom basé sur l’architecture MI450, des CPU AMD EPYC de 6e génération (« Venice ») et l’environnement logiciel ROCm. Le tout s’inscrit dans une approche rack-scale baptisée « Helios », développée grâce à l’Open Compute Project, un point clé parce qu’il traduit une logique de co-design d’infrastructure à l’échelle « hyperscaler ».

Diversification stratégique face à la domination de Nvidia

Là où l’annonce devient vraiment structurante, c’est sur la dynamique de marché qu’elle sous-entend. Meta insiste sur une stratégie « portfolio-based » visant à diversifier son socle de calcul, en combinant partenaires externes et efforts internes (MTIA). De son côté, AMD positionne l’accord comme un accélérateur de déploiement massif et une validation de sa capacité à soutenir des infrastructures IA à très grande échelle, dans un contexte où Nvidia reste ultra-dominant mais où les hyperscalers cherchent à réduire le risque de dépendance fournisseur.

Un montage financier qui aligne fournisseur et hyperscaler

Les montants, eux, ne figurent pas dans les communications officielles. Ils sont toutefois au centre des lectures médiatiques, qui évoquent une estimation large allant de 60 à 100 milliards de dollars sur plusieurs années. Cette amplitude reflète surtout le fait qu’il s’agit d’un engagement de capacité et de volumes à un horizon pluriannuel, dans un marché où le prix réel dépend de la cadence de livraison, des générations de matériel, des options de personnalisation et des services associés.

Derrière les milliards, un enjeu d’efficacité énergétique et de souveraineté technologique

Autre élément déterminant, le montage financier. AMD indique avoir accordé à Meta un warrant indexé sur la performance, portant jusqu’à 160 millions d’actions AMD, qui se débloque par tranches à mesure que les jalons de livraisons sont atteints, du premier gigawatt jusqu’à 6 GW. Plusieurs analyses y voient une manière d’aligner fortement fournisseur et client, mais aussi un signal sur l’intensité concurrentielle pour capter les budgets IA des hyperscalers, à l’heure où la question d’une « bulle » des investissements IA est régulièrement évoquée.

Vers une nouvelle génération de datacenters « IA-first »

Pour les décideurs IT et infra, l’info utile derrière le chiffre, c’est le basculement vers des infrastructures IA co-construites, « gigawatt-scale », où le silicium, le rack, le logiciel d’exécution et l’efficacité énergétique deviennent un seul sujet. À court terme, ce type d’accord contribue à sécuriser des feuilles de route datacenter et à lisser les risques d’approvisionnement. À moyen terme, il met la pression sur l’écosystème pour livrer des alternatives crédibles et industrialisées, compatibles avec les piles logicielles existantes, tout en tenant la contrainte énergétique qui accompagne mécaniquement l’IA à grande échelle.