Accueil Datacenter Comprendre – Le « edge datacenter » ou datacenter de proximité

Comprendre – Le « edge datacenter » ou datacenter de proximité

Renaud de Saint Albin

Renaud de Saint Albin, co-fondateur et responsable commercial de MODULE-IT, nous explique l’utilité des datacenters de proximité, ou edge datacenters, relais de la croissance des données.

La consommation des contenus numériques, la collecte de données et l’utilisation d’objets connectés sont en constante croissance. Cette explosion du volume de données continue de nourrir le mythe de l’implosion du web et, face aux coûts liés à la gestion et au transport de la data, force à repenser le modèle traditionnel du centre de données centralisé.

Entre 2014 et 2019, Cisco prévoit une multiplication par 3 du volume de données consommées1. Plusieurs facteurs sont à l’origine de cette croissance exponentielle : le machine-to-machine, l’essor de l’Internet des objets mais également l’utilisation de l’internet pour l’entertainement (TV, vidéo, VOD). Aujourd’hui, trois sociétés sont ainsi responsables de près de 75 % du trafic de données sur Internet : Google (YouTube), Netflix et Akamai. Netflix représente d’ailleurs à lui seul 35 % du trafic de données aux heures de pointe en Amérique du Nord et au Canada, et YouTube 18 %². Autre phénomène actuel : la conservation des données, rendue nécessaire par le développement du Big Data.

Cette croissance relance ainsi le mythe de l’implosion d’Internet, un thème qui refait régulièrement surface: le fameux « bug de l’an 2000 », l’arrivée des pays émergents sur le réseau en 2004 et plus récemment en 2012 avec l’accélération de l’internet mobile (3G/4G). La crainte réside dans l’éventualité que les infrastructures informatiques en place ne soient pas en capacité d’agréger et de traiter le volume de data. Si cette croyance n’est pour le moment qu’un mythe, l’augmentation considérable du volume de données engendre pourtant d’autres problématiques auxquelles nous devons répondre dès à présent.

Quels sont les nouveaux enjeux liés à cette explosion du volume de données ?

En terme d’infrastructure, le numérique s’appuie sur des datacenters et un squelette de réseau de fibre. Pour favoriser le développement du numérique, les régions multiplient les plans « Très Haut Débit » et une véritable course à l’équipement est engagée. Sans ces plans et équipements, le territoire risque de freiner sa croissance voire de la stopper net. Favoriser cette expansion implique divers enjeux, dont un maillage dense de réseau de fibre ainsi que de point d’accueil et de distribution que sont les datacenters.

D’un autre côté, il est estimé que d’ici à 2030 les datacenters de Paris consommeront autant d’énergie qu’un million d’habitants. Ces centres de données devraient représenter à eux seuls le quart de l’augmentation des besoins en énergie du Grand Paris, soit à peu près 1000 mégawatts supplémentaires d’ici 20303. On peut imaginer les problèmes énergétiques que cela pourrait engendrer.

Parallèlement à cet enjeu environnemental, une notion fondamentale du web est à prendre en compte : le temps de latence. Puisque les datacenters vont être appelés à collecter et à traiter de grands volumes de data, il va devenir primordial d’optimiser le temps de transport et de traitement des données pour répondre aux besoins des utilisateurs.

Quelles sont les solutions mises en place pour relever ces défis ?

Pour répondre aux enjeux du développement économique des territoires tout en faisant face aux contraintes de production et de consommation d’énergie, un nouveau type de centre de données fait son apparition : communément appelé edge data center outre-Atlantique, on utilisera le terme de « datacenter régional » ou « datacenter de proximité » en Europe et dans l’Hexagone. Ayant vocation à être plus nombreux et proportionnels en taille à la population et à ses besoins, ces datacenters sont, par nature, plus petits, plus proches de l’utilisateur final et fournissent du contenu et des applications à faible latence.

Si les grands datacenters continueront à traiter et stocker les données, ils seront de plus en plus secondés par ces datacenters de proximité. Les grands centres de données vont perdurer pour la simple raison que s’y trouvent les nœuds de communication, les fibres et les éléments du réseau. Ils s’appuieront cependant sur un réseau secondaire, voire tertiaire, de moyens et petits datacenters, permettant ainsi de délester les réseaux et diminuer le temps de latence, améliorant de ce fait le service des utilisateurs finaux.

L’utilisation de datacenters régionaux permet également de réduire l’empreinte environnementale. En fonction de la topographie du lieu d’accueil, il est en effet possible d’utiliser les sources d’énergie locales (puiser l’eau d’un lac avoisinant pour alimenter le système de refroidissement par exemple). En outre, plus les datacenters régionaux se multiplient, plus les dépenses en énergie sont fractionnées et optimisées, à l’instar des coûts de transport de la data.

Si l’effondrement du web ne reste à ce jour qu’un mythe, c’est grâce aux innovations développées par les équipementiers qui ont toujours su passer le cap et adapter la technologie aux usages. Relais de la croissance des données, les datacenters de proximité répondent parfaitement aux problématiques de latence et de disponibilité tout en affichant des rendements énergétiques très performants. Cette décentralisation du réseau est une des clés de maîtrise de l’énergie liée à Internet : avec une estimation de  60 % des serveurs cloud déployés dans des datacenters de proximité à horizon 20254, le mouvement engagé devrait s’accélérer, pour le bénéfice de tous.

 

1 Cisco, « Visual Networking Index », juin 2015

² Sandivine, « Global Internet Phenomena », juin 2016

3 Institut d’Aménagement et d’Urbanisme, « Les datacenters franciliens : un essor sous contraintes ? », avril 2015

4 Bell Labs, « Future X Network », 2015