Avec un nouvel accord signé avec Google et Broadcom, Anthropic prévoit de mobiliser plusieurs gigawatts de capacités de calcul à partir de 2027 pour soutenir la croissance de ses modèles Claude, dans un contexte de demande qui s’emballe.
Des besoins en calcul qui explosent
Anthropic prévoit de mobiliser des infrastructures basées sur des TPU de nouvelle génération pour entraîner et faire fonctionner ses modèles. Ces nouvelles capacités doivent entrer en service à partir de 2027.
L’entreprise explique vouloir répondre à une croissance, bien connue, très rapide de la demande. Selon son directeur financier, il s’agit du plus important engagement en matière de calcul jamais pris par le groupe, afin de suivre l’évolution de sa base clients et continuer à développer ses modèles.
Une croissance tirée par les usages
Anthropic met en avant une forte progression de son activité en 2026. Son chiffre d’affaires annualisé dépasse désormais 30 milliards de dollars, contre environ 9 milliards un an plus tôt.
Le nombre de clients à forte contribution augmente lui aussi rapidement. Plus de 1 000 entreprises dépensent aujourd’hui plus d’un million de dollars par an pour utiliser Claude, soit deux fois plus qu’il y a quelques semaines.
Une organisation technique répartie sur plusieurs clouds
Anthropic ne s’appuie pas sur une seule infrastructure. L’entreprise indique entraîner et exploiter Claude sur différents types de matériel, en fonction des besoins : puces Trainium d’AWS, TPU de Google ou GPU de NVIDIA.
Cette répartition permet d’ajuster les performances selon les usages, mais aussi d’éviter une dépendance à une seule technologie. Claude est aujourd’hui disponible sur les principales plateformes cloud, dont Amazon Web Services, Google Cloud et Microsoft Azure.
Amazon reste le partenaire principal pour l’entraînement des modèles, notamment avec le projet Rainier. Le nouvel accord avec Google vient renforcer l’accès aux TPU et compléter cet ensemble.








