À l’ouverture de la conférence Microsoft Ignite 2025, dbt Labs annonce l’intégration native de son moteur dbt Fusion dans Fabric Data Factory. Pour permettre aux équipes data de créer, tester et orchestrer des pipelines de transformation directement dans Microsoft Fabric, avec des gains significatifs en rapidité, gouvernance et productivité. Un tournant pour les architectures data-to-AI des entreprises ?
Une intégration stratégique au cœur de Fabric Data Factory
Lors de l’événement Microsoft Ignite 2025, dbt Labs a révélé une intégration native de dbt, d’abord via dbt Core, puis à terme via dbt Fusion, au sein de Microsoft Fabric Data Factory. Concrètement, cela signifie que les équipes data peuvent désormais créer, tester et orchestrer des transformations directement dans Fabric, sans passer par une interface de commande externe ou un orchestrateur séparé. C’est un pas de géant vers l’unification de la chaîne data au sein de Fabric : ingestion, transformation, gouvernance, analytique, IA. Ce qui correspond totalement à la promesse de Microsoft : faire de Fabric un hub unifié pour les data estates modernes.
Performance, gouvernance et productivité : les promesses de dbt + Fabric
Le moteur dbt Fusion, « développé en Rust et doté d’une compréhension sémantique du langage SQL », marque un net changement d’échelle technologique pour dbt Labs. Selon l’annonce, il « offre une expérience de développement considérablement améliorée » et surtout des performances inédites, avec « des temps d’analyse jusqu’à 30 fois plus rapides que dbt Core ». Concrètement, « Fusion exécute de grands projets dbt en quelques millisecondes contre plusieurs minutes auparavant », un gap qui pourrait transformer la cadence des pipelines data en entreprise.
Mais la promesse dépasse la seule optimisation technique. L’intégration directe dans Microsoft Fabric permet d’appliquer automatiquement « les contrôles de sécurité d’entreprise via Fabric » à chaque transformation. De quoi renforcer la gouvernance, assurer la qualité des données et garantir que les pipelines restent alignés avec les politiques internes de conformité. En somme, des données « fiables, mieux gouvernées et prêtes pour l’analytique et l’IA », exactement comme le souligne dbt Labs.
Pour les équipes data, cela veut dire : moins de friction opérationnelle, moins de complexité infrastructurelle, plus de temps pour se concentrer sur la logique métier, la qualité des données et la valeur business.








