Accueil La revanche des sites régionaux à taille humaine

La revanche des sites régionaux à taille humaine

Le datacenter régional veut répondre aux dernières exigences du Cloud avec une disponibilité continue, des VM louées à la demande et une sécurité de bout en bout.

Un hébergement en région, à proximité des utilisateurs, séduit un nombre croissant d'entreprises et de collectivités qui doivent moderniser leur système d'information. C'est que l'infrastructure et l'offre de services hébergés, hors du grand Paris, n'accusent plus de retard. Au contraire, elles évoluent vite, pour apporter une disponibilité continue, une sécurité physique et logique avec des équipes de soutien expérimentées, non surchargées et joignables par téléphone à tout moment. Autant de critères qui font parfois la différence en faveur des PME locales et innovantes. Leur défi actuel ? Passer d'infrastructures sur mesure à des offres de services industrialisés, facturés à l'usage. Bref, rivaliser avec les leaders du Cloud (Amazon, Google, Rackspace, Microsoft) et avec les acteurs souverains, Cloudwatt et Numergy.

Des infrastructures autofinancées pour ASPServeur

ASPServeur fait partie des pionniers qui ont démarré l'hébergement de serveurs en région, il y a une décennie. Dès 1998, Sébastien Enderlé développe des sites web dynamiques et enseigne parallèlement au Greta les technologies Internet de Microsoft. Ses stagiaires lui font remarquer l'absence de plateforme mutualisée supportant le langage ASP (Active Server Page) sur l'Hexagone. Le formateur-développeur, guitariste à ses heures, démarre le service d'hébergement ASPServeur.com, louant d'abord une plateforme aux USA pour la partager avec ses stagiaires. Quelques mois plus tard, il ouvre ses premières baies de serveurs à Paris, chez Redbus Interhouse, un prestataire acquis depuis par Telecity. «Nos premiers clients étaient des associations, des particuliers et des groupes de musique. Nous avons obtenu le prix du meilleur site Web avec le groupe IAM. La chaîne Canal+ nous a suivis. Nous étions lancés», retrace-t-il. Les activités de conseil, de développement et d'hébergement vont évoluer en parallèle durant plusieurs années.

Afin de se concentrer sur le hosting de serveurs Microsoft et Linux, Sébastien Enderlé s'associe à Stéphane Mutel, alors consultant Internet ; ensemble, ils procèdent à un rachat d'actifs et créent la société ASPServeur, en 2004. En croissance de 18% à 40% par an, la société à taille humaine atteint les 3 millions d'Euros en 2012. Les clients grossissent avec son chiffre d'affaires. Ce sont maintenant de grands comptes qui alimentent des bases de données en temps réel et exigent une très haute disponibilité de services.

L'expansion de l'hébergeur passe par une implantation à Courbevoie, puis au sein d'un nouveau site Marseillais de SFR, avant le rachat d'un bâtiment industriel à La Ciotat, où Gemplus fabriquait ses cartes à puces. Les infrastructures sont auto-financées, la stratégie des dirigeants consistant à bâtir le socle technique le plus robuste possible. Deux chaînes électriques différenciées et deux groupes électrogènes assurent l'alimentation continue des équipements, secourus par onduleurs. La production de froid et les chemins réseaux sont deux fois redondés. Des boucles optiques relient deux datacenters distants de 43 kilomètres, permettant un stockage synchrone : «Un octet écrit à La Ciotat est écrit au même moment à Marseille, via le MetroCluster de NetApp. Cette approche permet de construire des offres de clusters avec un équilibre de charges, mais aussi un Cloud relativement unique. Si nous perdons un datacenter complet, le client ne perçoit aucune déconnexion de son site ni aucune perturbation sur son terminal server», explique Sébastien Enderlé.

Chaque dispositif doit être protégé

Plutôt qu'un simple plan de reprise, des clients d'ASPServeur comme ShowRoomPrivé, ou plus récemment Florajet, sont assurés de ne perdre aucune transaction marchande. Les mesures de Cedexis et de CloudScreener confirment régulièrement l'excellente place du prestataire, respectivement en termes de haute disponibilité et de fonctionnalités fiables. La sauce secrète d'ASPServeur est composée d'équipements récents et de logiciels bien intégrés avec une supervision continue des infrastructures informatiques et techniques liées aux bâtiments.

A La Ciotat, dix-huit modules de climatisation fonctionnent simultanément en circuit fermé, pour garantir une température constante. Au cœur du datacenter, des détecteurs de flux d'air permettent de réguler la climatisation de façon très précise, en temps réel. Les batteries, les modules de gestion des alimentations et même les disjoncteurs des baies sont placés sur alarme. Chaque composant peut ainsi être échangé à chaud, sans coupure. Une baie ASPServeur est louée avec deux bandeaux de 24 ports, de façon à pouvoir stopper ou redémarrer, à distance, un groupe d'équipements déterminés. Impossible de perdre toute l'alimentation de sa baie, chaque bandeau Schneider Electric étant relié à un onduleur distinct, via des disjoncteurs différents.

Le contrôle d'accès aux équipements intervient au niveau de chaque baie, via un badge personnalisé : l'administrateur ne peut ouvrir que les portes menant aux équipements qu'il est en droit de gérer et non celles d'autres baies. Dans chaque armoire, des sondes captent la température et l'hygrométrie (quantité de vapeur contenue dans l'air), en temps réel, avant de les remonter vers l'intranet de l'utilisateur. Ces paramètres étant contrôlés en continu, les équipements de traitement, de transfert et de stockage des données sont protégés en permanence.

Une orchestration à maîtriser

En mode Cloud public, l'interface d'administration d'ASPServeur propose un pilotage interactif de tous les éléments du datacenter : configuration des serveurs, OS, hyperviseur, réseau, pare-feu et prises pour le redémarrage des machines. La plupart des fonctionnalités proposées par Amazon ou RackSpace sont présentes. Le contrôle à distance permet aussi l'évolutivité automatique des ressources, en fonction de la charge, dans une limite prédéfinie. Pour l'orchestration de tels services, le datacenter s'appuie sur plusieurs outils dont un développement interne simplifiant les migrations. «La migration, la réversibilité et le déploiement de machines virtuelles sont trois notions liées. Pour la migration depuis un Cloud privé, un client peut puiser des ressources complémentaires sur notre infrastructure, quel que soit son hyperviseur, propriétaire ou open source. Pour la réversibilité, il peut repartir ailleurs, toujours avec la technologie de son choix. Et, pour le déploiement, notre sauvegarde de VM permet de créer un gabarit ré-utilisable par des centaines de VM semblables, incluant l'application pré-installée. Les éditeurs de logiciels, distributeurs, SSII et réseaux de franchisés sont friands de ce modèle», précise Sébastien Enderlé.

Les défis actuels d'ASPServeur sont le renforcement de son équipe commerciale et de sa notoriété. L'entreprise doit compter aussi avec de puissants rivaux régionaux tels que Jaguar Networks, Cheops Technology et Neo Telecoms. Pour accompagner son expansion internationale, il pourra s'appuyer sur son offre de services CDN reliée par 104 datacenters, dans 34 pays dans le monde et sur l'ouverture prochaine de son capital à des investisseurs étrangers.

Ikoula sert des VM et plateformes dédiées

Le marché de l'externalisation des systèmes évolue avec l'économie des entreprises régionales. A Reims, Ikoula recueille les fruits de la baisse des budgets informatiques : «Lorsque les ressources des systèmes d'informations sont coupées en interne, les organisations sont obligées d'externaliser, en commençant par les données les moins sensibles d'abord. Généralement, elles préfèrent conserver le cœur de métier dans leurs locaux», illustre Aurélien Poret, responsable infrastructures et réseaux de l'hébergeur Ikoula. Les clients du prestataire champenois vont des particuliers aux grands groupes ; mais, la majorité des clients provient d'Ile de France et même d'Europe. Le cœur de métier d'Ikoula demeure la location de serveurs dédiés et la mise à disposition de VM à distance. «Dans le domaine de l'agriculture et des sucreries, nos clients régionaux ont toujours une salle en propre et une partie de leur infrastructure chez nous pour connecter leurs agences en France le plus souvent», précise-t-il.

La virtualisation des plateformes sert souvent à mener des tests de nouveaux services applicatifs distribués. C'est le cas, en particulier, dans l'industrie : «Les services proposés correspondent aux niveaux de qualité exigés par nos clients franciliens et locaux. Avec 1700 mètres carrés à Reims, 90% de notre production IT est locale, les 10% restants étant répartis sur plusieurs datacenters parisiens, à 140 km. Entre Reims et Paris, le délai de latence de 3 ms s'avère négligeable dans l'ouverture d'une page web.»

La sécurité de l'infrastructure réseaux repose sur deux artères principales de la ville de Reims et sur deux chemins formant une boucle en fibre optique entre Reims et Paris, pour éviter tout point de panne unique. Ce réseau étendu, géré en propre, offre une bande passante de 8 x 10 Gbps vers la Capitale ; une bande passante très largement dimensionnée en regard des usages actuels.

«Nos clients n'ont pas à se poser la question du choix d'un opérateur étendu puisque nous sommes raccordés à plusieurs opérateurs et que nous sommes nous-mêmes opérateur. Ils accèdent directement aux mesures de latence de nos réseaux via le site public smokeping.ikoula.com et peuvent vérifier les sessions depuis leurs propres succursales.

L'Ile de France pour infrastructure de backup

Construit sur une butte, le centre de Reims n'est pas exposé aux risques d'inondations et il résiste aussi à la foudre, grâce à deux paratonnerres révisés tous les cinq ans. Une double induction électrique maintient l'alimentation en énergie du site qui a connu, depuis 2007, 1 heure 30 de coupure seulement. Et, chaque mois, l'hébergeur procède à des essais pour vérifier ses groupes électrogènes.

Ce site est conçu comme plusieurs datacenters regroupés dans un même bâtiment, avec des climatisations redondantes, des équipements répliqués entre salles indépendantes et des infrastructures de backup chez Telecity à Courbevoie. Les serveurs positionnés sur ces sites franciliens servent en cas de reprise pour redémarrer une activité après un souci grave au niveau du datacenter champenois. Malgré la concurrence des sites parisiens, les services d'Ikoula ne figurent pas parmi les moins chers du marché. Dans le coût d'un datacenter, les frais de maintenance de l'infrastructure résiliante et les coûts de l'énergie peuvent dépasser l'investissement foncier : «Le personnel présent continuellement, sur place ou à distance, ne procède pas simplement à des opérations de type marche-arrêt. Il doit être capable d'analyser le système et de le réinstaller, d'intervenir sur les lames des serveurs, sur les alimentations ou les disques durs», explique Aurélien Poret.

Lorsqu'un client loue une baie informatique, Ikoula livre deux sources d'énergie, un réseau maîtrisé et un forfait de quelques heures de main d'œuvre par mois pour les opérations traditionnelles, sur site. En cas d'urgence, des heures supplémentaires d'ingénieurs peuvent être facturées en complément. Un client Toulousain ne déplace ainsi jamais ses équipes à Reims mais intervient toujours à distance, en liaison avec les administrateurs du site.

Un maillage de ProxiCenters salutaire pour TDF

La modernisation de sites d'opérateurs historiques explique en partie l'essor des datacenters régionaux. Depuis un an, TDF s'est lancé sur le marché des datacenters en profitant de la migration de la télévision analogique vers le numérique. Son premier ProxiCenter a ouvert en mai 2013 à Bordeaux Bouliac. Un maillage de six centres est prévu d'ici à la fin 2014, grâce au raccordement à haut débit des sites de Rennes, Lille, Strasbourg, Lyon et Aix-Marseille. L'interconnexion optique est réalisée avec l'équipementier Ciena ; elle vise à simplifier le partage et la synchronisation de fichiers multimédia ainsi que la protection de données médicales. Bien que déjà endetté, TDF doit investir fortement pour se transformer et moderniser les infrastructures de ses clients. Christine Landrevot, Directrice de la Division Télécoms et Services de TDF confirme les priorités actuelles : «notre forte capacité d'hébergement partout en France, au plus près de nos clients, nous aide à proposer une gamme de services adaptée aux besoins des entreprises. Notre ambition est de faciliter le développement du business au cœur des régions, d'accompagner l'aménagement numérique des territoires dans une démarche de partenariat et de mettre à la disposition des entreprises locales un haut niveau de prestations.»

A terme, TDF convoite les interactions Internet multi-écrans. On peut prévoir le développement d'offres CDN (content delivery network) via sa filiale Smartjog, la diffusion de contenus web commerciaux et de spectacles numériques. A Bordeaux Bouliac, l'utilisation du free cooling permet de refroidir les salles informatiques tout en réduisant la consommation d'énergie ; cette approche a contribué à l'obtention du label Endorser Code of Conduct for Datacentres. Sa neutralité vis-à-vis des opérateurs télécoms forme à la fois un risque et un atout pour s'imposer au carrefour des technologies numériques, mobiles et multimédias.

Veepee démocratise la fibre optique noire

Acquis en juillet 2010 par Spie Communications, Veepee est un opérateur de services IP spécialisé dans la téléphonie Internet et les solutions collaboratives. Son offre d'infrastructure Cloud associe l'hébergement de plateformes serveurs et les prestations de réseaux multi-opérateurs. «La fibre optique noire, jugée chère et complexe, se développe dans les PME et les collectivités, note Guillaume Lecerf, Directeur Commercial de VeePee. Très riche en termes de services, elle permet de véhiculer tous types de protocoles : IP, Ethernet, SAN Fibre Channel, audio-vidéo.» L'évolution de la réglementation et les progrès technologiques favorisent son implémentation, avec une baisse de prix qui pourrait être profitable aux infrastructures évolutives des datacenters régionaux et à celles des Cloud communautaires.