Accueil data management AVIS D’EXPERT – 2026 marque le début d’une nouvelle ère pour les...

AVIS D’EXPERT – 2026 marque le début d’une nouvelle ère pour les données

À l’approche de 2026, les stratégies data et IA entrent dans une phase de recomposition profonde, marquée par la fin des silos entre cloud, on-premise et edge. Cette nouvelle dynamique repose sur une convergence des environnements, des usages et des modèles, où l’efficacité, la gouvernance et l’interopérabilité deviennent centrales. Dans cet avis d’expert, Sergio Gago, CTO chez Cloudera, analyse les grandes mutations à l’œuvre et les conditions nécessaires pour faire émerger une exploitation des données réellement unifiée et prête pour l’IA à l’échelle.
L’année 2026 restera dans les mémoires comme la première d’une nouvelle ère : celle d’une véritable convergence. Pendant plus d’une décennie, nous avons vécu l’« ère du cloud », une période caractérisée par l’abstraction et l’élasticité. Avant cela, l’«ère du contrôle » avait apporté l’échelle, mais aussi les silos. Ce qui vient ensuite n’est ni un retour aux datacenters, ni une foi aveugle dans le cloud, mais l’« ère de la convergence » : une réalité hybride où les deux coexistent de manière transparente grâce à des plans de contrôle unifiés.
En effet, les entreprises prennent conscience que, si certains workloads doivent rester on-prem pour des raisons de souveraineté, de latence ou de coût, d’autres prospèrent davantage dans le cloud public. Le changement majeur réside dans le fait que les utilisateurs ne se soucient plus de l’endroit où un workload est exécuté, mais uniquement qu’il le soit de manière sécurisée, efficace et conforme. Quelles sont les tendances qui façonneront l’aube de l’ère de la convergence ?

L’efficacité devient la nouvelle frontière de l’IA

Alors que les coûts liés à l’infrastructure de l’IA augmentent et que la demande en énergie explose, 2026 marquera le début d’une ère d’IA économe en énergie. Les gagnants ne seront pas ceux qui exploitent les modèles les plus volumineux, mais ceux qui exploitent des modèles de taille appropriée. Des modèles plus petits seront massivement adoptés, spécifiques à un domaine et optimisés pour l’edge, combinés à des avancées en matière de quantification, d’élagage et de calcul adaptatif. Les entreprises donneront la priorité à l’efficacité énergétique en tant qu’indicateur clé de performance, et non comme une considération secondaire.
Auparavant, la « gravité des données » permettait de définir où le calcul avait lieu. Désormais,  la « gravité énergétique », les calculs et le stockage orienteront cette décision vers des sources d’énergie les moins chères. En 2026 et au-delà, l’IA sera jugée non seulement sur sa précision, mais aussi sur son efficacité par kilowattheure. Les entreprises doivent alors orchestrer divers modèles bien gouvernés selon leur fonctionnement et leurs performances, avec des critères de référence très clairs en matière d’exactitude, d’exhaustivité et d’alignement.

L’essor des entreprises « data-first »

Les années 2023 à 2025 ont été marquées par l’expérimentation. Si les chatbots étaient fortement plébiscités, rares étaient ceux qui disposaient des données nécessaires pour les alimenter. La phase à venir nécessite un retour aux fondamentaux : obtenir les bonnes données avant de déployer l’IA à grande échelle et contrôler comment les données entrent et sortent. Les entreprises vont donc revoir leurs fondamentaux en matière de données, à savoir  la qualité, la traçabilité, l’observabilité et la gouvernance.
Sans pipelines de données solides, l’IA n’est qu’une automatisation du bruit. Créer un chatbot avec quelques centaines de documents PDF pour « discuter avec les données » est facile. Mais son intégration à un pipeline complet d’informations clients afin de créer un agent de prévision nécessitera un travail préparatoire.
En 2026, nous assisterons à l’essor des pipelines de compétences agentiques, dans lesquels l’IA ne se contente pas de consommer des données, mais les améliore également, en corrigeant de manière autonome les dérives de schéma, en détectant les biais ou en optimisant les coûts. Ainsi, les pipelines de données ne seront plus des systèmes administratifs en arrière-plan, mais des systèmes vivants et apprenants. Les agents deviendront alors de nouveaux collègues numériques et les entreprises disposeront d’une marketplace complète pour interagir avec eux. 2026 verra donc la naissance du véritable data lake IA alimentant les agents.

L’ère de l’intelligence interopérable

Enfin, à mesure que les agents se multiplieront, l’interopérabilité deviendra essentielle. Les entreprises auront besoin d’un langage commun pour favoriser la collaboration entre leurs agents, et ce en toute sécurité, et au-delà des frontières et des fournisseurs. Les entreprises exploiteront alors les données (et leurs agents) provenant de différents fournisseurs. Les cadres et les spécifications tels que MCP ou A2A arriveront à maturité et permettront ces communications entre agents.
Les fournisseurs joueront ici un rôle central : orchestrer des écosystèmes multi-agents, connecter les systèmes d’IA internes et externes via des API régies. Ils devront passer d’applications d’IA isolées à une intelligence fédérée, où les informations circulent librement mais en toute sécurité entre les systèmes, les clouds et les zones géographiques.

La convergence entre l’IA et l’informatique quantique

Au-delà de 2026, les pipelines quantiques et d’IA s’intégreront progressivement, où l’informatique quantique améliorera l’optimisation, la simulation et la découverte de matériaux.
Le calcul haute performance (HPC) et l’IA commenceront à fusionner dans des systèmes hybrides distribués, permettant aux entreprises de résoudre des problèmes auparavant jugés impossibles, de la découverte de médicaments à l’optimisation des réseaux énergétiques. L’architecture hybride doit être prête pour ce paradigme, en intégrant à terme les simulateurs quantiques, les GPU et les CPU sous une seule couche d’orchestration. Le quantique peut agir comme un accélérateur de modèles et résoudre des problèmes qui étaient auparavant impossibles à démêler. Si ce secteur n’est pas encore aussi mature que celui de l’IA, la convergence de ces deux technologies peut apporter des avantages concurrentiels considérables aux entreprises.
En définitive, en matière de données, il a toujours été question de connexion, depuis les clusters distribués de Hadoop jusqu’à la portée élastique du cloud, en passant aujourd’hui par l’intelligence distribuée de l’IA. L’ère de la convergence ne consiste pas à choisir son camp (cloud ou sur site, humain ou machine), mais à les réunir sous une architecture commune fondée sur la confiance, l’efficacité et l’intelligence. Car pour des projets d’IA déployés à l’échelle de l’entreprise de manière réussie, ces derniers doivent pouvoir accéder à toutes les données, où qu’elles se trouvent : dans les clouds, les datacenters ou à l’edge. Les organisations doivent les exploiter avec une faible latence et disposer d’une véritable structure de données qui ajoute une couche de gouvernance au système : qui y accède et pourquoi, et qui permet une traçabilité adéquate. Ce sont là quelques-uns des principes de l’IA privée.