Meta détaille sa stratégie de développement de puces dédiées à l’intelligence artificielle pour ses data centers. La société américaine souhaite optimiser certaines charges de calcul et mieux maîtriser l’infrastructure nécessaire au déploiement massif de ses modèles.
Des accélérateurs IA conçus en interne
Meta travaille sur plusieurs générations de processeurs baptisés MTIA (Meta Training and Inference Accelerator), conçus pour accélérer les charges liées à l’intelligence artificielle dans ses infrastructures. Ces puces doivent notamment être utilisées pour l’inférence, c’est-à-dire l’exécution de modèles déjà entraînés dans les services du groupe, comme les systèmes de recommandation ou certaines fonctions d’IA générative.
L’entreprise prévoit un déploiement progressif de ces accélérateurs dans ses data centers au cours des prochaines années.
Un enjeu stratégique pour l’infrastructure IA
La montée en puissance de l’intelligence artificielle entraîne une explosion des besoins en puissance de calcul. Les hyperscalers restent aujourd’hui très dépendants des GPU de Nvidia pour entraîner et exploiter leurs modèles. Dans ce contexte, développer des accélérateurs spécialisés permet de mieux adapter l’infrastructure aux usages internes et de réduire certains coûts liés à l’exécution des modèles à grande échelle.
Une stratégie hybride pour soutenir la croissance de l’IA
Meta ne cherche toutefois pas à remplacer totalement les GPU du marché. Les puces internes viennent plutôt compléter les architectures existantes. Cette approche s’inscrit dans la stratégie plus large du groupe autour de l’infrastructure IA. La semaine dernière, Meta annonçait ainsi un partenariat majeur avec AMD pour déployer plusieurs gigawatts de GPU Instinct dans ses centres de données, afin de soutenir la croissance de ses plateformes d’IA.
Les accélérateurs maison doivent permettre de prendre en charge certaines charges spécifiques, tandis que les GPU externes restent essentiels pour l’entraînement des modèles les plus gourmands.
Comme Google, Amazon ou Microsoft, Meta investit désormais dans ses propres architectures matérielles pour soutenir la montée en puissance de l’IA. La conception de puces spécialisées devient ainsi un levier stratégique pour améliorer l’efficacité énergétique, optimiser les coûts et adapter les infrastructures aux usages des modèles.








