Accueil data management AVIS d’EXPERT : « Penser l’architecture data pour l’agilité, pas pour la...

AVIS d’EXPERT : « Penser l’architecture data pour l’agilité, pas pour la vitesse »

Et si le débat n’était plus “batch ou temps réel”, mais “rigide ou adaptable” ? Dans un contexte économique imprévisible, la question n’est pas de choisir entre deux modes de traitement des données, mais de repenser entièrement l’architecture pour qu’elle serve les objectifs métiers, en continu, avec agilité et à grande échelle. Cet avis d’expert, signé par Fred Cecilia, Senior Solutions Engineering chez Confluent, plaide pour un changement de paradigme : dépasser les approches rigides, casser les silos culturels et techniques, et faire de la donnée en flux un moteur d’innovation pour l’entreprise tout entière.

Dans le domaine du data management, une question revient souvent : faut-il privilégier le traitement par lots ou en temps réel ? Or, à l’heure où l’instabilité économique est devenue la norme, ce débat paraît de plus en plus dépassé. Trop d’équipes continuent de concevoir des architectures rigides, sans se poser la vraie question : leur plateforme de données est-elle capable de s’adapter en continu, avec fiabilité et à grande échelle ?

Le rythme d’ingestion des données ne doit pas dicter l’architecture. Ce qui importe, c’est que celle-ci soutienne les objectifs métier.  Séparer les flux rapides des traitements par lots crée des systèmes fragmentés, plus complexes et moins agiles. Une plateforme unifiée permet au contraire de maximiser la flexibilité, la scalabilité et la réactivité.

Gagner en efficacité, réduire les coûts : l’apport des flux de données

Contrairement aux idées reçues, le traitement en continu est souvent plus efficace. Le traitement par batch engendre des pics de consommation et un surdimensionnement coûteux de l’infrastructure. À l’inverse, les architectures basées sur les événements permettent un ajustement dynamique des ressources et un meilleur contrôle des coûts.

Ce point devient crucial avec l’essor de l’IA. Les traitements par batch provoquent des pics d’usage, qui font grimper les coûts de calcul et les émissions carbone. Dans un contexte où l’impact environnemental de l’IA est scruté de près, ce modèle devient difficilement soutenable.

Les entreprises capables d’exploiter intelligemment le flux continu de leurs données en tirent un avantage concurrentiel. Dans la finance, une banque peut établir le matin une photographie de son exposition au risque, puis devoir réagir immédiatement à une annonce réglementaire imprévue. Dans l’assurance santé, certaines entreprises exploitent les objets connectés pour ajuster les offres en temps réel, au bénéfice de l’expérience client et de la maîtrise des coûts.

Dans de nombreuses organisations, les priorités métiers évoluent plus vite que l’infrastructure IT sous-jacente. Le résultat : des projets IA ou d’automatisation freinés par des architectures trop rigides, incapables de fournir des données actualisées en continu. La clé n’est plus de bâtir des systèmes optimisés pour un seul cas d’usage, mais de concevoir des plateformes suffisamment souples pour répondre à des besoins multiples : de la détection de fraude en temps réel à l’optimisation de la chaîne logistique, en passant par l’expérience client omnicanale. L’agilité de la donnée devient ainsi un levier d’innovation à tous les niveaux de l’entreprise.

Lever les freins culturels pour bâtir les systèmes de demain

Pourquoi tant d’entreprises tardent-elles encore à évoluer ? Souvent, ce n’est pas la technologie qui freine, mais l’état d’esprit. Beaucoup de dirigeants constatent que les obstacles viennent avant tout des structures budgétaires et organisationnelles.

Selon une étude récente sur le data streaming (source), 93,5 % des décideurs français perçoivent la fragmentation des données comme un obstacle majeur à l’adoption de l’IA. Or, dans de nombreuses entreprises, les logiciels, l’infrastructure ou encore les ressources humaines, tout fonctionne encore en silos, avec des objectifs et des budgets cloisonnés.

De mon expérience, cela conduit souvent à des choix à court terme, par exemple le recours à des outils open source dits « gratuits », qui peuvent sembler économiques, mais se traduisent in fine par une complexité coûteuse et difficile à maintenir. Nos systèmes ont été conçus pour un monde stable. Ce monde a disparu. Nos architectures doivent évoluer vers des plateformes capables d’intégrer une pluralité de rythmes et de cas d’usage, avec une agilité radicale.

Le défi est autant technologique que culturel. L’adoption du data streaming nécessite de dépasser des réflexes ancrés, comme la séparation stricte entre données opérationnelles et analytiques, ou l’idée que le temps réel n’est pertinent que pour certains secteurs. Or, les attentes des clients, des partenaires et des régulateurs imposent désormais une réactivité généralisée. Les DSI les plus avancés l’ont compris : ils travaillent main dans la main avec les métiers pour identifier les cas d’usage prioritaires et démontrer la valeur d’une approche orientée flux. Cette dynamique de collaboration est essentielle pour ancrer durablement la transformation.

Ne construisons plus pour le monde d’hier. Construisons pour le monde d’aujourd’hui.

Fred Cecilia, Senior Solutions Engineering chez Confluent