Accueil L’intégration imprime son rythme au datacenter

L’intégration imprime son rythme au datacenter

Les procédures du datacenter doivent suivre la cadence de l’intégration continue. Donc fiabiliser l’infrastructure, automatiser les déploiements, surveiller les processus et optimiser les ressources.

 

Les versions de logiciels se succèdent de plus en plus vite. Elles tendent vers l’intégration continue, suivant une chaîne qui, telle une médaille, ne dévoile qu’un revers à la fois. Côté pile, les outils de développement, de tests et de déploiement rapprochent les concepteurs des exploitants de services informatiques : c’est l’approche DevOps (lire API et DevOps au service d’un SI flexible). Côté face, une infrastructure doit soutenir cette intégration continue. Elle se dessine progressivement autour d’outils d’orchestration et d’automatisation, voire de technologies SDN (Software-Defined Network) et NFV (Network Fonction Virtualization). Mais, aujourd’hui, ces réseaux exigent plusieurs installations complexes pour composer le socle fiable des applications élastiques et portables entre plusieurs sites.

L’exposition de services à l’aide d’API

L’un des défis actuels de la DSI consiste à mener de plus en plus de projets malgré un budget en contraction. Réutiliser des services ou des micro-services devient inéluctable.

« Parmi les précautions à prendre, il importe de définir des règles, de préconiser des procédures pour obtenir un résultat toujours gérable. »

Gaëtan Allain, Orange

Gaëtan Allain
Gaëtan Allain

Le programme API d’Orange vise à exposer, en interne et en externe, la plupart des services d’infrastructures de l’opérateur. “L’API devient un fil rouge pour les projets du système d’information Orange. Les cartes, les identités, le provisioning de ressources sont déjà présentés sous forme d’API. Parmi les précautions à prendre, il importe de définir des règles, de préconiser des procédures pour obtenir un résultat toujours gérable”, recommande Gaëtan Allain, architecte et expert technique d’Orange. Il contribue à mettre en place un accès sécurisé au SI à partir des smartphones des salariés, via la passerelle d’accès de CA Technology. La DRH étant le sponsor de ce projet, les services des ressources humaines et ceux du support sont les premiers à être délivrés sur smartphone – les applications métiers suivront. “Le pilote en cours concerne un millier d’utilisateurs. Il nous permet d’optimiser l’usage, l’expérience utilisateur, et d’adapter le niveau de protection aux données recherchées. La conception de la solution est volontairement modulaire afin de s’adapter aux autres briques en place et de pouvoir répondre aux futurs besoins qui apparaîtront.”

La société de tierce maintenance Curvature (anciennement Network Hardware Resale) innove également autour d’API : “Notre communauté d’ingénieurs est focalisée sur le support technique. Nous développons des bases de diagnostics pour fournir à nos clients une réponse uniforme. Nous créons des applications autour de processus ITIL et nous ouvrons des API grâce auxquelles nos partenaires intègrent très simplement des informations de suivi, par exemple en photographiant le numéro de série de chaque équipement réseau depuis leur smarphone”, illustre Lucie Posada, Sales Manager chez Curvature.

Le pilotage du réseau par logiciels

Yaakov Stein
Yaakov Stein

Le réseau SDN sépare physiquement le plan d’aiguillage des paquets du plan de contrôle, centralisé sur un contrôleur logiciel. De leur côté, les fonctions NFV ont pour mission de remplacer les équipements propriétaires du réseau par des logiciels exécutés sur des serveurs ordinaires. Cette virtualisation facilite le déplacement des fonctions réseau à l’endroit où elles seront le plus efficace, ou le moins cher. “Le SDN est largement adopté dans le datacenter, mais il reste moins adapté sur des liens étendus. Les fonctions NFV conviennent en périphérie du réseau et pour des tâches de contrôle. Ensemble, ces technologies simplifient l’expérimentation de nouveaux concepts réseaux. Elles accélèrent le déploiement de nouveaux types de services et simplifient l’administration des réseaux”, observe Yaakov Stein, le directeur technique de RAD Data Communications.

Vincent Maury
Vincent Maury

Optimiser les ressources délivrées en tant que service requiert toujours l’examen successif des étapes de livraison, de monitoring et d’optimisation des services. “Quelques grands clients réfléchissent à adopter l’approche SDN dans leur infrastructure, avec des boîtiers lambda pour faire rapprocher la commutation, le routage et le filtrage en cœur de réseau du datacenter. Mais ce n’est pas une généralité car ces technologies sont récentes et il n’y a pas un standard qui s’impose clairement”, complète Vincent Maury, le directeur technique de Deny All France. L’offre Cloud Protector de ce fournisseur fournit un pare-feu d’application Web très simple à configurer : “La génération d’une nouvelle plateforme en pré-production déclenche la création d’une image qui va créer la nouvelle plateforme WAF en mode SaaS et détruire l’ancienne. Les services on demand et les ressources Cloud changent les usages en sécurité”, démontre Vincent Maury. Dans les grands groupes internationaux, l’héritage technologique impose de travailler sur une surcouche adaptée aux nouveaux usages, constate-t-il. “Offrir des services à la demande, à court terme, devient une condition de survie pour la DSI. Sinon, les études iront se débrouiller seules sur le Cloud Amazon, via de simples dépôts de codes. Des applications entières, dans le domaine IoT, tournent déjà en mode serverless”, précise-t-il.

« L’IT est révolutionnée par l’approche DevOps qui chahute beaucoup de pratiques dans le datacenter. La mutation doit partir de là. »

Arnaud Lambert, Treeptik

 Arnaud Lambert
Arnaud Lambert

La surveillance des niveaux de services

En offrant plus d’élasticité, l’infrastructure moderne accélère l’innovation au travers de services délivrés à la demande. Reste à vérifier leurs niveaux de disponibilité, de qualité et de sécurité. “L’IT est révolutionnée par l’approche DevOps qui chahute beaucoup de pratiques dans le datacenter. La mutation doit partir de là”, confirme Arnaud Lambert, le président de Treeptik. Il recommande aux responsables d’infrastructures de s’organiser autour de chaînes d’automatisation, avec des procédures de surveillance pour anticiper les pannes.

Les équipes d’exploitation doivent délivrer plus vite ce que les développements sont maintenant capables de fournir au fil de l’eau. Elles se familiarisent donc aux dépôts logiciels (de type git), aux conteneurs (docker), à la documentation embarquée (swagger) et à l’intégration continue (jenkins). “L’outillage existe depuis un an environ. Cet assemblage de programmes open source nécessite une personnalisation et une adaptation aux contraintes organisationnelles des entreprises. On ne peut pas tout bousculer partout. En particulier, les règles de sécurité, au Luxembourg ou en Suisse, ne permettent pas d’aller au bout de l’intégration continue”, délimite Arnaud Lambert.

La personnalisation est doublée d’une intégration

Kevin Polizzi
Kevin Polizzi

Le travail de personnalisation se double d’une intégration à l’existant chez l’hébergeur : “Historiquement, nous développons un système d’information sur notre couche infrastructure d’hébergement. Sur la couche micro-services, on étudie OpenStack et l’offre Fusion de VMware. On peut automatiser une infrastructure de micro-services, mais il faudra toujours des compétences derrière pour accompagner les clients. Nous faisons face à deux enjeux : créer un portail simple et efficace afin que chaque collaborateur puisse s’en servir, et la construction d’API qui ressemble beaucoup à ce qui se fait sur le marché des grands clouds, pour que les clients puissent facilement nous intégrer comme un cloud souverain”, conclut Kevin Polizzi, le président de Jaguar Networks.