Accueil IA-Intelligence Artificiellle OpenAI adopte les puces IA de Google : vers la fin du...

OpenAI adopte les puces IA de Google : vers la fin du monopole Nvidia ?

OpenAI a commencé à utiliser les TPU (Tensor Processing Units) de Google pour faire tourner ChatGPT, délaissant pour la première fois de manière significative les GPU de Nvidia. Ce choix stratégique entre deux géants pourtant concurrent, se trouve avant tout motivé par la maîtrise des coûts et pourrait bouleverser le marché des puces IA, incitant d’autres acteurs à suivre la même voie.

Réduire les coûts

OpenAI, l’un des plus gros clients de Nvidia, cherche à alléger ses charges d’infrastructure, en raison de l’augmentation considérable des besoins en capacité de calcul pour l’entraînement et l’utilisation des modèles d’intelligence artificielle. Les TPU de Google, conçus pour l’inférence IA, sont plus compétitifs financièrement que les GPU Nvidia, surtout en contexte de pénurie et de flambée des prix. Cette diversification d’OpenAI pourrait également limiter sa dépendance à Microsoft et Oracle, ses deux principaux fournisseurs cloud basés sur Nvidia.

Rappelons par ailleurs qu’OpenAI utilisait déjà Google Cloud pour l’hébergement partiel de ChatGPT et ses API.

Google muscle son jeu dans les puces IA

Les TPU de 7ᵉ génération, lancés en avril 2025, sont les premières puces d’inférence IA de Google, déjà utilisées par Apple pour sa plateforme Apple Intelligence. Google ambitionne désormais d’étendre leur usage à d’autres fournisseurs cloud, menaçant ainsi la domination de Nvidia. Si la firme réussit, elle pourrait consolider un rôle central dans l’écosystème IA, non plus uniquement comme éditeur de modèles (Gemini), mais aussi comme fournisseur d’infrastructure.

Vers une recomposition du marché IA ?

OpenAI est le premier acteur majeur à adopter massivement une alternative à Nvidia, ce qui pourrait faire tache d’huile. D’autres entreprises IA pourraient être tentées de suivre, notamment pour alléger leurs coûts ou pour des raisons de disponibilité. Nvidia reste toutefois, pour le moment, indétrônable sur l’entraînement des modèles.

OpenAI étudierait aussi la conception de ses propres puces IA, renforçant une tendance du secteur vers des architectures propriétaires (comme Amazon avec Trainium et Inferentia). Le duopole Nvidia-Google dans l’inférence pourrait rapidement s’élargir à d’autres acteurs, redessinant les équilibres dans la chaîne de valeur IA.