Avec AFX, NetApp veut lever un frein classique des projets IA en production, un stockage capable d’alimenter des GPU très performants sans créer de goulets d’étranglement, tout en renforçant la sécurité et l’écosystème de référence avec NVIDIA. Guillaume de Landtsheer, DG de NetApp, détaille aussi sa lecture de l’« IA frugale » et de la souveraineté, qu’il résume comme une question de confiance, de transparence et de gouvernance plus que de nationalité.
SNC : Vous avez fait le choix de partenariats étroits avec les hyperscalers. Pourquoi ?
Guillaume de Landtsheer : À partir de 2015-2016, nous avons constaté une véritable maturité des sujets cloud. Nous nous sommes posé la question d’une concurrence frontale avec les hyperscalers, puis nous avons fait le choix inverse. Nous sommes allés discuter avec eux. Aujourd’hui, nos technologies sont utilisées directement chez Microsoft, AWS ou Google. Par exemple, Microsoft commercialise, opère et supporte nos technologies dans Azure. Pour les clients français, cela permet de gérer leurs données dans des environnements hybrides, de faire des sauvegardes dans Azure ou d’absorber des pics de charge, tout en restant dans leurs contrats cloud existants. Cette position est assez unique sur le marché.
Pourquoi avoir lancé AFX maintenant et quel besoin du marché adresse-t-il ?
G. D.- L. : Il y a plusieurs enjeux majeurs. Le premier est la performance. Les modèles d’IA sont extrêmement consommateurs de puissance de calcul. Ils nécessitent des entrées et sorties de données très rapides. Les architectures de stockage classiques deviennent rapidement un facteur limitant.
AFX repose sur une architecture de stockage désagrégée. Cela signifie que, lorsqu’on dispose de plusieurs clusters, on peut exploiter tous les chemins possibles pour accéder aux données et maximiser la performance globale. C’est une gamme de produits conçue spécifiquement pour les workloads IA, avec des niveaux de performance très élevés.
Le deuxième enjeu est la sécurité. Nous évoluons dans un monde où les données sont critiques et doivent être protégées. Le troisième point est la compatibilité. Nous travaillons avec des architectures de référence certifiées, notamment avec NVIDIA. Les clients ont ainsi la garantie que les solutions GPU sont testées, compatibles et supportées nativement avec nos technologies.
Pourquoi le stockage devient-il si critique dans les projets IA ?
G. D.- L. : Un système d’information repose toujours sur trois briques principales. Le réseau pour acheminer l’information, le stockage pour la conserver, et le calcul pour la traiter. Si vous avez une brique compute extrêmement performante, mais un stockage incapable de suivre, vous créez mécaniquement un goulot d’étranglement.
Dans les environnements HPC ou IA, on a besoin de systèmes de stockage capables de répondre aux mêmes exigences de performance que les GPU. AFX répond précisément à ce besoin, tout en permettant de dissocier les problématiques de capacité et de performance selon les usages.
Les entreprises veulent aujourd’hui une IA plus frugale. Où se situent les vrais leviers d’efficacité ?
G. D.- L. : Le sujet de la donnée est central. Entre 2018 et 2020, nous avons produit autant de données que durant toutes les décennies précédentes. Ces données reposent sur des supports qui consomment de l’énergie.
Chez NetApp, environ 95 % de notre empreinte carbone est liée à l’usage de nos machines chez les clients, et non à notre fonctionnement interne.
Nous travaillons donc sur plusieurs leviers. D’abord, la consommation énergétique des machines elles-mêmes, ainsi que leur refroidissement. Ensuite, la compression des données. Nous sommes capables, selon les types de données, de réduire leur taille jusqu’à un facteur dix. Nous utilisons aussi le tiering automatique, qui consiste à identifier les données fréquemment utilisées et à déplacer automatiquement les données froides vers des supports moins consommateurs d’énergie, sans que l’utilisateur ou l’application ne s’en aperçoive.
Certains clients prolongent la durée de vie de leurs équipements pour des raisons environnementales. Est-ce pertinent ?
G. D.- L. : Pas nécessairement. D’un point de vue économique, cela peut se comprendre. Mais d’un point de vue environnemental, c’est souvent une erreur. Les machines actuelles consomment entre 70 % et 90 % d’énergie en moins que celles d’il y a quatre ou cinq ans.
Conserver des équipements très énergivores plus longtemps n’est pas toujours cohérent avec un objectif de développement durable.
La préparation des données est souvent sous-estimée dans les projets IA. Pourquoi est-ce un point clé ?
G. D.- L. : Dans une entreprise, on trouve souvent des données personnelles ou sensibles, comme des documents d’identité ou des informations privées stockées sur des postes de travail. Ces données doivent être identifiées et traitées correctement. Ensuite vient la vectorisation, qui consiste à transformer des fichiers en représentations mathématiques compréhensibles par les modèles. C’est un enjeu fondamental pour la recherche sémantique et la RAG.
Un projet IA ne se résume pas à brancher un LLM. Il faut préparer les données, les classifier, les cataloguer, vérifier leur conformité réglementaire et leur sensibilité.
Comment NetApp évite-t-il la multiplication des copies de données dans ces projets ?
G. D.- L. : Traditionnellement, beaucoup de projets consistent à dupliquer l’ensemble des données dans une nouvelle infrastructure dédiée à l’IA. Cela revient à dupliquer l’infrastructure elle-même. Notre approche est différente. Nous préparons les données là où elles résident déjà. Lorsque plusieurs équipes ont besoin de copies, nous utilisons des mécanismes de snapshots et de copies logiques. Physiquement, il n’existe qu’une seule copie des données, seuls les incréments sont stockés. Cela permet de réduire quasiment de moitié l’infrastructure nécessaire, avec un impact direct sur les coûts et la consommation énergétique.
Est-il donc possible de faire de la RAG performante sans multiplier les silos de données ?
G. D.- L. : Oui. Soit on reconstruit une infrastructure complète en copiant toutes les données dans un nouvel environnement, soit on travaille sur les données existantes en les préparant correctement. La seconde approche permet d’éviter la duplication massive et de rationaliser l’ensemble du système d’information.
La souveraineté est un sujet très présent. Comment NetApp l’aborde-t-il ?
G. D.- L. : La souveraineté est un terme souvent utilisé, mais rarement défini de manière unique. Lors d’échanges récents au Parlement européen, il est apparu clairement que chacun en avait sa propre interprétation.
Pour nous, il ne s’agit pas d’une souveraineté absolue et illusoire, mais de maîtrise et de confiance.
NetApp est une entreprise américaine, mais nous sommes transparents sur notre gouvernance, notre sécurité et notre organisation financière. Nous respectons le droit américain et les réglementations locales des pays dans lesquels nous opérons. Nos clients peuvent exploiter nos technologies de manière totalement indépendante. Ils gardent la maîtrise complète de leurs données et de leurs environnements, sans dépendance opérationnelle vis-à-vis de NetApp. Nous disposons également de nombreuses certifications, comme HDS, coffre-fort numérique ou des certifications de sécurité utilisées par des clients soumis à des exigences fortes.
Quel est votre conseil pour passer du POC IA à la production en 2026 ?
Il n’y aura pas de rupture nette. L’IA se déploie par couches. Il y a d’abord l’IA de productivité, déjà largement à l’échelle. Ensuite, l’IA intégrée aux applications métiers, qui se généralise rapidement. Enfin, les projets spécifiques qui transforment réellement les modèles opérationnels, dans la santé, la recherche ou les services publics. Le point commun à tous ces niveaux reste la donnée.
Sans données préparées, gouvernées et maîtrisées, aucun projet IA ne peut réellement passer à l’échelle.








