Snowflake renforce son Data Cloud AI en intégrant nativement les bibliothèques NVIDIA CUDA-X dans Snowflake ML. Cette évolution permet aux data scientists d’exécuter leurs workflows Python habituels sur GPU, sans modifier leurs environnements ni leurs codes, tout en accédant directement aux bibliothèques cuML et cuDF.
Grâce à cette intégration au sein du Snowflake Container Runtime, les performances font un bond significatif. Les benchmarks fournis par NVIDIA annoncent des gains allant de 5× pour Random Forest à 200× pour HDBSCAN sur GPU A10, ce qui change l’échelle des projets de machine learning. Snowflake vise ainsi à répondre à l’explosion des volumes de données, pour lesquels l’accélération GPU devient essentielle afin de maîtriser les coûts et maintenir la productivité.
Les cas d’usage les plus intensifs bénéficient immédiatement de ces optimisations. La modélisation de sujets à grande échelle peut désormais traiter des millions d’avis ou de données tabulaires en quelques minutes plutôt qu’en heures. Dans la génomique computationnelle, les workflows de classification gagnent en rapidité, libérant du temps pour l’analyse plutôt que pour la gestion d’un computing complexe.
Pour Christian Kleinerman, EVP of Product chez Snowflake, le but est de simplifier le travail des équipes data et leur permettre de se concentrer sur la valeur métier. NVIDIA partage cette vision, rappelant que ces capacités accélérées constituent un socle clé pour l’IA générative et agentique.
Les clients peuvent accéder à ces nouvelles fonctionnalités via Snowflake Notebooks ou à distance via ML Jobs, consolidant un partenariat qui vise à démocratiser la puissance du GPU pour les entreprises.






