Accueil Administration

Administration

La supervision globale des niveaux de services

Essentielle pour passer du logiciel au service, la supervision des couches techniques passe par des alertes, des automatismes, des mécanismes de reprise et… davantage de contacts entre professionnels. Encore récemment, un responsable informatique devait acheter ses serveurs puis les loger dans une salle pour délivrer des applications aux utilisateurs. Dorénavant, de nombreux prestataires de services proposent de réaliser ces étapes pour l’entreprise ; ils assurent jusqu’à l’exploitation et, parfois, jusqu’à l’évolution des services applicatifs hébergés dans leurs centres. Cette variété de sources d’approvisionnement demande une nouvelle supervision globale, pas toujours simple à obtenir, en pratique. Légitimement, l’entreprise cherche à connaître, avant que les utilisateurs ne s’en plaignent, les niveaux de services réellement fournis. En particulier, il faut savoir quand ils se dégradent et pour quelle raison. Pour cela, on doit être capable de mesurer l’infrastructure et d’en régler les équipements, en s’appuyant, autant que possible, sur des standards. Face aux outils de cartographie et de récupération de journaux – tel Whatsup d’Ipswitch ou Nagios dans l’univers Open Source – les équipementiers proposent leurs propres programmes générant des alertes à distance en cas de défaillance. Mais, “on rencontre vite les limites des outils de supervision en environnement cloud computing ; ils requièrent des portes spécifiques rarement ouvertes par l’hébergeur pour des raisons de confidentialité et de sécurité”, note Christian Dumont, consultant chez Amettis. Qu’un client sous-traite une partie de son infrastructure et il devra s’en remettre à son prestataire pour obtenir des mesures de temps de réponse et, en quelque sorte, “faire son deuil d’une partie de l’exploitation”. En interne, la gestion des processus d’exploitation se focalise surtout sur des procédures répétitives qu’on cherche à optimiser pour gagner du temps et de l’argent. Mais de nombreuses interactions imprévisibles et informelles jalonnent le quotidien des administrateurs systèmes. Variées et non structurées, ces interactions conditionnent aussi le fonctionnement global du site. “La structuration de l’information est délicate à obtenir mais elle permet aux équipes réparties de traiter des problèmes essentiels”, explique Alexandre Mermod, fondateur et directeur général de Calinda Software (lire l’encadré).

L’informatique au coeur du réseau

L’entreprise recherche une plus haute disponibilité pour ses services informatiques, un prix plancher et une évolution souple. Pour répondre aux trois critères simultanément, les ressources informatiques peuvent-elles rester en périphérie du réseau ? Non, affirme Philippe Moity, Directeur d’Interoute avant d’expliquer : “sur un site relié par une boucle locale, le prix de la bande passante reste élevé, les connexions manquent de fiabilité et les délais de mises à niveau atteignent 6 à 8 semaines. Ce manque de réactivité pèse sur les activités de l’entreprise, l’utilisateur ayant souvent l’impression d’être mieux servi à son domicile qu’au bureau”. En replaçant l’informatique au coeur du réseau, l’opérateur d’infrastructures améliore la disponibilité des services et comprime le coût d’exploitation des clients. Avec une dizaine de datacentres en Europe, Interoute se développe sur l’hébergement et le cloud computing. Or, “il faut une structure de coûts la plus stable et la plus fixe possible pour se développer sur les applications. Avec le cloud computing, la notion de débit réseau devient transparente : on doit maîtriser le réseau techniquement et au niveau financier pour pouvoir s’affranchir de l’infrastructure physique”. Selon Philippe Moity, les éditeurs informatiques se tournant vers le cloud louent tous de la bande passante pour honorer leurs contrats. Du coup, plus leurs applications prennent de l’importance, plus leurs charges s’envolent. D’où l’importance de bien cerner comment son prestataire opère ses réseaux et, surtout, avec quels engagements de services réels. “Attention à ne pas multiplier les composants et les acteurs impliqués dans le service délivré car on multiplie ainsi le taux de disponibilité final offert par la chaîne d’intervenants”, souligne- t-il. La dégradation de la disponibilité du service dépend de deux types de bande passante en réalité : celle qui relie le prestataire à son client et celle qui le relie vers Internet. Il convient aussi de soigner les chaînes de refroidissement et d’alimentation électrique ainsi que tous les secours et systèmes de repli en cas d’incident. En pratique, la transparence de toutes ces prestations, que l’entreprise finale appelle pourtant de ses voeux, semble trop rarement au rendez-vous. 

 

Le soutien précieux des réseaux sociaux

La génération Y exige des conversations en temps réel, comme à la maison. Mais, cet outil reste très volatile et grand public. “Pour créer du lien social interactif entre les partenaires distants, faciliter les recherches de talents et offrir davantage de productivité, mieux vaut établir une communication asynchrone laissant des traces dans un portail collaboratif tel Sharepoint”, défend Alexandre Mermod, le directeur général de Calinda Software. Ses premiers clients sont opérateurs de télécommunications et fournisseurs d’énergie. Le réseau social leur permet de capter l’information externe, de la commenter en faisant réagir les collaborateurs, puis de propager des savoir-faire. Le complément Sharepoint de Calinda (Social Factor for Communities) est loué 50 centimes d’Euros par mois et par utilisateur, ou vendu 10 Euros par utilisateur. Il intègre une messagerie instantanée privée au portail collaboratif de Microsoft et conserve les dialogues et liens vers les pièces jointes, en marge des tickets d’incidents du helpdesk, par exemple