À l’occasion de la conférence NVIDIA GTC, Nutanix a présenté une nouvelle offre baptisée Nutanix Agentic AI, positionnée comme une plateforme logicielle full-stack destinée à faciliter le déploiement et l’exploitation d’usines d’IA en entreprise.
L’éditeur, connu pour ses solutions d’infrastructure hyperconvergée et de multicloud hybride, adresse ici un enjeu émergent : le passage de l’expérimentation autour des agents IA à une exploitation à grande échelle. Selon Nutanix, la difficulté ne réside plus dans les modèles eux-mêmes, mais dans la capacité à orchestrer, sécuriser et opérer des milliers d’agents et de services IA simultanément.
Une approche intégrée autour de Kubernetes et des services IA
La solution s’appuie sur une combinaison de briques existantes de l’éditeur, hyperviseur AHV, réseau virtualisé Flow, plateforme Kubernetes et offre Nutanix Enterprise AI, enrichies de services PaaS et MaaS pour les équipes data et développement.
Au cœur du dispositif, Nutanix met en avant une intégration étroite avec NVIDIA AI Enterprise, notamment au niveau de la couche Agent Builder. La plateforme prend également en charge les microservices NVIDIA NIM et les modèles open source Nemotron.
Parmi les évolutions notables, la version 2.6 de Nutanix Enterprise AI introduit un service AI Gateway destiné à centraliser les politiques d’accès et de gouvernance des modèles, qu’ils soient déployés dans le cloud ou on-premise. La prise en charge du Model Context Protocol (MCP) et du fine-tuning vise à faciliter la connexion sécurisée des agents aux données et outils de l’entreprise.
En parallèle, Nutanix enrichit sa plateforme Kubernetes (conforme CNCF) avec un catalogue d’outils IA : notebooks, bases vectorielles, frameworks agentiques ou encore outils MLOps.
Optimisation de l’infrastructure pour les charges IA
Sur le plan infrastructurel, Nutanix met l’accent sur l’optimisation des environnements GPU. Une version en accès anticipé de son hyperviseur AHV, intégrant des capacités topology-aware issues de NVIDIA, doit permettre une allocation plus efficace des ressources sur des serveurs fortement dotés en GPU.
Côté réseau, l’intégration avec les DPU NVIDIA BlueField permet de décharger le dataplane, avec à la clé une réduction de l’empreinte CPU et mémoire des hôtes.
L’ensemble vise un objectif d’améliorer le ratio coût/performance, notamment en réduisant le coût des tokens et en le rendant plus prévisible.
Une brique data alignée avec NVIDIA
La plateforme s’appuie également sur Nutanix Unified Storage, aligné avec l’architecture de référence NVIDIA AI Data Platform. L’éditeur promet des performances linéaires pour des environnements massivement parallèles, ainsi que des optimisations pour les workloads d’inférence (support du KV cache, S3 et NFS sur RDMA).
Une offre pensée pour des déploiements validés
Nutanix positionne son offre dans un écosystème validé, avec des déploiements possibles sur des infrastructures Cisco, Dell ou Supermicro, certifiées conjointement avec NVIDIA.
Au-delà de l’annonce produit, Nutanix confirme ainsi son orientation vers des plateformes intégrées, combinant infrastructure, orchestration et services IA. Une stratégie qui vise à simplifier l’industrialisation de l’IA dans les grandes organisations, à mesure que les usages agentiques gagnent en complexité et en volumétrie.







