Accueil L’infrastructure réseau Ethernet

L’infrastructure réseau Ethernet

La boîte blanche est un commutateur Ethernet bare metal embarquant un OS réseau pré-chargé, comme c’est le cas des modèles Arista 7250.

Les principales avancées informatiques ont lieu désormais au cœur des datacenters, là où les informations sont analysées. C’est aussi là que l’on doit répondre aux diverses requêtes d’utilisateurs toujours plus nombreux. Avec la virtualisation des ressources physiques du datacenter, les ports réseaux des commutateurs et des serveurs sont de plus en plus sollicités. Les interfaces réseaux Ethernet 25, 40 et bientôt 100 Gbps apparaissent.

Nexus 7000
Nexus 7000

Pour transporter davantage de flux de données jusqu’aux fermes de serveurs, l’infrastructure réseau Ethernet à très haut débit se généralise. Première étape, on renouvelle les commutateurs 1 Gbps amortis depuis plusieurs années car ils coûteront de plus en plus cher en maintenance dans le temps. Cette simple opération permet de décupler la bande passante et de résorber les goulets d’étranglement ralentissant les applications, sans bouleversement global.

Une nouvelle adaptabilité pour les commutateurs

Mais le véritable bénéfice de la migration réseau est ailleurs. Les commutateurs multi-Gigabit Ethernet forment un énorme atout pour le SDN (Software Defined Network). En devenant programmable, le réseau Ethernet apporte bien plus qu’un simple rajeunissement. Il accompagne la convergence des réseaux et permet une reconfiguration dynamique des commutateurs sans exiger l’intervention manuelle sur chaque boîtier.

Parmi les briques d’automatisation, de nombreux scripts scrutent les journaux des équipements réseaux tandis que d’autres facilitent la bascule de liens, autorisent ou interdisent une connexion à partir de listes blanches. L’industrialisation progresse : on livre dorénavant sur une clé USB une configuration préétablie pour démarrer le commutateur à partir d’un serveur distant et déployer, plus rapidement, l’ensemble des paramètres et des règles de fonctionnement du switch, quelle qu’en soit la marque. C’est là qu’intervient le protocole OpenFlow, qui transmet au commutateur la table de transfert dont il a besoin pour traiter les paquets. Avec l’approche SDN, rappelons que la fonction d’expédition des paquets est séparée de celle du contrôle des paquets, ce dernier incombant au système d’exploitation de réseau. Dernier composant clé du réseau piloté par logiciels, l’API du système d’exploitation de réseau est l’interface de programmation qui rend le réseau Ethernet programmable.

Plus de débit et de densité dans le datacenter

Le projet de transformation du réseau Ethernet passe par l’ouverture d’un nouveau datacenter ou par l’ouverture d’une zone haute densité dans un site existant. Des équipements de dernière génération et surtout de nouveaux logiciels d’exploitation du réseau sont requis pour migrer. On voit d’abord les fonctions réseaux et sécurité se virtualiser les unes après les autres – le proxy et le pare-feu par exemple. La tendance actuelle revient à considérer toute l’infrastructure du datacenter comme une pile de services applicatifs. Outre-Atlantique, on désigne cette strate de logiciels spécialisés l’infrastructure as a code.

Logiquement, les pratiques de supervision sont revisitées par les commutateurs modernes. Il n’en demeure pas moins que l’exploitation privilégie toujours une configuration stable : “Le B-A-BA de toute migration réseau consiste à garantir qu’il n’y aura aucune perturbation de l’infrastructure existante”, confirme Christophe Compain, architecte solutions techniques chez Cisco France.

L’une des missions de l’intégrateur réseau consiste donc à sensibiliser ses clients afin qu’ils construisent du neuf “sur le côté”, c’est à dire en parallèle de l’infrastructure en place plutôt qu’en la remplaçant.

Pascal_Gay_Arista« Axa Technologies Services déploie un Cloud privé performant pour les services Big Data, autour de clusters Nutanix et d’interconnexions Arista Networks. »
Pascal Gay, Arista

AxaTech consolide avec Arista et Nutanix

L’entité Axa Technology Services a monté un réseau Cloud privé pour le compte du groupe Axa. Confronté à une forte concurrence, l’assureur entend délivrer de nouveaux services innovants sur cette plateforme adaptable à son environnement. Le Cloud interne s’appuie sur des commutateurs Ethernet d’origine Arista Network – un challenger de Cisco – et sur l’approche hyperconvergente de Nutanix qui exige un réseau rapide et solide à la fois.

“Comme les technologies du Big Data, Nutanix sollicite beaucoup le réseau Ethernet. Les performances des fermes de serveurs dépendent de buffers conséquents et d’équipements réseaux non bloquants. C’est la raison pour laquelle nous avons de nombreux clients en commun”, constate Pascal Gay, regional sales director d’Arista Networks France.

L’OS réseau de l’équipementier repose sur un système linux embarqué. Ouvert, il permet aux clients de développer, en langage Python, des outils d’optimisation du réseau, d’équilibre des charges, voire d’échanges avec le pare-feu.

Arista Networks compte déjà une cinquantaine de clients français, dont les prestataires OVH et Ikoula, ou encore le logisticien Norbert Dentresangle. Il se présente comme le pionnier du Software Driven Cloud Networking.

Avant le début 2016, Arista compte livrer des commutateurs aux ports Ethernet 25 Gbps pour rallier les serveurs les plus sollicités du datacenter. Côté serveur, l’interface réseau devra être remplacée aussi, mais le câblage en place pourra être conservé. Quant aux liens fédérateurs du centre de données, ils vont passer au 40 Gbps ou à un autre multiple de 10 Gbps par agrégation de liens.

“La tendance actuelle consiste à passer au 40 Gigabit car le commutateur Ethernet l’intègre à un coût raisonnable. En fin d’année, un switch 1U de 32 ports 100 GBE ne coûtera que 15% plus cher qu’un modèle actuel de 32 ports 40 gigabit. En 2016, on s’attend à ce que l’Ethernet 100 Gigabit remplace l’Ethernet 40 gigabit.”

Où se situera le prochain goulet d’étranglement ? Probablement au niveau de l’inter-Cloud ou des liens entre datacenters. En effet, les services Big Data et les services à base d’objets communicants vont s’appuyer sur plusieurs centres de données. Arista travaille également sur ces liens en préparant une interface DWDM pour son châssis routeur-switch 7500 qui doit permettre de traverser la France à très haut débit, d’ici la fin de cette année. “Cette extension abaissera le coût inter-sites via l’usage de fibre noire, sans qu’il soit nécessaire d’acheter un lien DWDM actif à son opérateur. On pourra ainsi bâtir une plan de reprise d’activités de l’autre côté de l’Hexagone”, précise Pascal Gay.

Sans imposer d’outil d’orchestration global, Arista laisse ses clients choisir celui qui leur convient le mieux. “Les architectures d’anciennes générations forment un frein au Cloud. Le nerf de la guerre consiste à pouvoir répondre aux reconfigurations permanentes du réseau”, remarque-t-il.

« Le groupe Paypal analyse 13 millions de transactions financières par jour, afin de détecter les fraudes. Ces traitements s’appuient sur une infrastructure multi-Gigabit Ethernet d’origine Mellanox. »

Yossi Elbaz, Mellanox

L’architecture “Leaf & Spine” semble se généraliser

Le groupe Paypal détecte la fraude financière sur Internet en temps réel ; son infrastructure multi-Gigabit Ethernet lui permet d’analyser quelque 13 millions de transactions par jour. Elle s’appuie sur des applications Big Data et des flux de données

servis par des commutateurs, cartes réseaux et câbles Mellanox. “Les dix principales sociétés du Web 2.0 utilisent nos produits comme un avantage concurrentiel”, recense Yossi Elbaz, le directeur des ventes pour le Benelux et l’Europe du Sud de Mellanox, un expert réseau issu du monde des centres de calculs hautes performances (HPC).

Avec les équipements Ethernet multi-Gigabit dédiés au centre de données, de nouvelles topologies apparaissent. L’architecture à deux niveaux, dite “Leaf & Spine” (feuilles et branches), semble se généraliser : “Notre constat pour le datacenter actuel est simple. Nous préconisons deux niveaux seulement, avec les commutateurs d’accès et les commutateurs de dorsale”, ajoute-t-il.

La famille de commutateurs SB7000 de Mellanox offre jusqu’à 36 ports 100 Gbps
La famille de commutateurs SB7000 de Mellanox offre jusqu’à 36 ports 100 Gbps

En fait, l’équipementier recommande, pour des questions d’ouverture et de résilience, de ne pas utiliser de châssis central pour agréger les liens des commutateurs placés en tête de rack. Il se revendique de la mouvance Open Ethernet, une approche ouverte qui va au-delà du SDN et qui tente de mettre fin aux dérives propriétaires. Son implémentation se concrétise, chez Mellanox, par l’usage de commutateurs VMS (Virtual Modular Switch) où un châssis virtuel est créé à partir de deux niveaux de commutateurs semblables de format 1U, utilisables individuellement. “C’est une stratégie pertinente car plus résiliante que deux grands châssis redondants avec, en cas de panne d’un châssis, 50% du réseau perdu”. Evolutive et économique dans le temps, l’approche Leaf & Spine diffuse le risque : inutile d’acquérir un châssis surdimensionné par rapport au besoin. On peut investir progressivement, au fur et à mesure de la croissance des trafics réseaux. En cas de commutateur 1U défaillant, on ne perd que le sous-segment lié à cet équipement. Côté administration, Mellanox propose “des agents Puppet et Chef sur chaque commutateur ; ces outils d’automatisation particulièrement souples sont de plus en plus utilisés dans le monde du Datacenter”, observe Yossi Elbaz.

Les cartes réseaux et commutateurs de Mellanox s’appuient sur des circuits ASIC maison, assurant une faible latence et une forte densité. “Notre dernier ASIC Spectrum est le premier à fournir 100 Gigabit Ethernet sur une architecture 32 ports non bloquante, le débit plein est offert à latence constante, quelle que soit la taille des paquets.”

Paramétrer l’infrastructure plus rapidement

La démocratisation des commutateurs Ethernet concerne surtout, depuis deux ans, des modèles banalisés aux ports 1/10 Gbps acceptant un câblage cuivre ou fibre optique. Ces modèles hybrides disposent aussi d’un port montant 40 Gbps permettant de rallier une dorsale réseau.

Dans un datacenter, le gestionnaire doit optimiser le coût de toutes les interfaces réseaux. “L’arrivée du 40 Gigabit Ethernet est en mesure de réduire le coût par port pour l’agrégation, mais l’interface 25 Gigabit Ethernet arrive et elle pourra prendre le pas selon les interfaces placées en face”, prévient Gilles Petit, directeur des ventes de Dell Networking. Ce qui donne une petite avance à l’Ethernet 25 gigabit, c’est son coût intéressant et sa faculté d’agréger quatre liens pour rejoindre une dorsale à 100 Gbps, dès le mois de septembre 2015.

Les trafics inter-serveurs (dits “est-ouest”) représentent jusqu’à 80 % des trafics du datacenter, or ils ont besoin d’une bande passante plus importante. L’Ethernet 25 Gigabit va leur offrir ce surcroît à condition de faire évoluer également les cartes réseaux des serveurs. Pour Gilles Petit, l’approche SDN contribuera aussi à réduire les coûts d’exploitation en automatisant les tâches fastidieuses sans valeur ajoutée. Par exemple, elle contribuera à pousser une même configuration VLAN partout sur l’infrastructure, quels que soient l’environnement et l’origine du commutateur. Gilles Petit prévoit, d’ici deux à trois ans, l’arrivée de commutateurs Ethernet à vitesse variable, avec une détection automatique du débit. Ces switches banalisés au format 1U recevront, de façon agnostique, des flux à 10, 25, 40, 50 ou 100 Gbps.

Un dépannage qui se transforme avec le SDN

L’intérêt du SDN réside surtout dans sa faculté de faire monter en charge le réseau Ethernet : on peut ajouter de nombreux commutateurs standards et piloter une infrastructure complète via un logiciel centralisé. Mais si la convergence des infrastructures dans le datacenter réduit le nombre de strates matérielles, l’approche SDN ajoute, en contrepartie, des strates applicatives : “On retire du hardware pour simplifier l’architecture réseau, mais on extrait l’intelligence des commutateurs pour la placer dans un logiciel centralisé, nuance Dorian Thevenon, le directeur général de Spirent Communications France. Le SDN contribue à déployer des équipements matériels de façon flexible. Mais, on n’en est qu’au début. Les équipementiers feront adopter l’architecture à leurs clients.”

Ayant participé à des phases pilotes chez plusieurs opérateurs, le directeur de Spirent France est persuadé qu’ils vont franchir le pas prochainement, une fois passée la phase de maturation actuelle. Il prévient toutefois : “le réseau SDN provoque un changement complet, y compris au niveau de la méthodologie de tests. Jusqu’à présent, l’environnement était maîtrisé par un nombre de ressources placées en fonction des performances souhaitées. L’approche SDN distribue l’intelligence. Il faut s’assurer que toutes les interactions vont bien fonctionner et qu’on obtient au moins le même niveau de performances qu’avec des ressources dédiées”.

Les injecteurs de trafics de Spirent servent l’analyse du réseau à bas niveau et aussi celle des applications par génération de trafic voix, vidéo, données et même de trafics malsains pour tester la sécurité de l’infrastructure. Des injecteurs à 10, 40, 100 et même 400 Gbps sont déjà proposés et déclinés au format virtuel – les ports d’injections dépendent alors des lames d’un serveur blade par exemple et des ressources allouées aux tests.

Au niveau du dépannage de l’infrastructure, lorsqu’un événement inattendu survient, il faut pouvoir dépanner à tout moment tout ce qui se passe dans la chaîne de liaison. En faisant remonter toutes les alertes du réseau vers le contrôleur, Juniper Networks fournit ainsi une visibilité complète de l’infrastructure en cas d’incident. La première problématique consiste à pouvoir dire d’où vient le problème, de la partie matérielle ou logicielle du SDN.

La frilosité des DSI à se lancer provient aussi du fait que chaque équipementier suit encore sa propre approche SDN : comment maîtriser tout ce qui se passe au milieu du réseau et comment tester la qualité de services de bout en bout ? “On vérifie qu’au milieu, les règles de QoS, de commutation et de routage sont bien distribuées. On teste aux extrémités puis on vérifie que la qualité de service est bien au rendez-vous. Cela exige des experts à tous les niveaux”, reconnaît Dorian Thevenon.

« Google cherche à étoffer son outillage de déploiement massif d’infrastructure autour de mécanismes de boot automatique par exemple. Ces technologies sont peu à peu retenues dans le monde de l’entreprise. »

Christophe Compain,   Cisco France

Trois catégories d’usages pour le SDN

On distingue déjà trois familles d’usages possibles pour le SDN. La première, dite SDN version 0, forme l’héritage de bonnes pratiques en place chez les géants du Web. C’est une industrialisation du déploiement de commutateurs, nécessaire pour répondre au plan de charge des centres de données d’Amazon ou d’Apple par exemple, chacun déployant plus de 200 commutateurs par semaine. “Google cherche à étoffer son outillage de déploiement massif d’infrastructure autour de mécanismes de boot automatique par exemple. Ces technologies sont peu à peu retenues dans le monde de l’entreprise”, retient Christophe Compain, architecte solutions techniques chez Cisco France. Un usage consiste à mettre en œuvre un routage évolué. A l’instar de Google, Facebook et d’acteurs de la téléphonie sur IP, la reprogrammation des tables de routage des commutateurs s’effectue à la volée, en fonction de plusieurs critères. Par exemple, la réorientation des flux vers une seconde ferme de serveurs. Cette implémentation s’appuie sur une typologie d’infrastructure maison. Elle requiert donc des ressources de développement, de réglage fin et une très bonne compréhension des protocoles réseaux. Cet usage est réservé aux GAFA et à quelques grandes sociétés américaines.

Seconde catégorie, le SDN version 1 concerne les entreprises en quête d’agilité et de mise en place rapide de nouveaux services web. “Ce sont des groupes dont le système d’information est volontairement mis à jour une à deux fois par an et qui souhaitent passer à trois, quatre reconfigurations annuelles, voire davantage. Pour y parvenir, ils couplent l’infrastructure à la gestion des versions des applications. Ils déploient de nouveaux usages comme le Big Data ou ajoutent fréquemment de nouvelles fonctions et cherchent à produire, en quelques clics, des containers réseau, statiques ou dynamiques, à la volée”. Cet usage multi-environnement englobe souvent l’infrastructure OpenStack et VMware, mais aussi Hyper-V ou KVM. Il s’agit de suivre l’hétérogénéité du système d’exécution et de faciliter sa montée en charge.

 

Juan de Zulueta,  Juniper Networks« Le réseau SDN permet aux clients de mettre en place des Clouds hybrides dans leurs datacenters distants. C’est une solution ultime pour l’agilité et la distribution automatisée d’applications en quelques jours. »

Juan de Zulueta, Juniper Networks

Juniper Networks propose plusieurs voies pour simplifier l’architecture du datacenter.
Juniper Networks propose plusieurs voies pour simplifier l’architecture du datacenter.

 

En balbutiement, le SDN version 2 est la troisième famille d’usages.

C’est celle des prestataires Cloud voulant fournir une offre clé en main, incluant le provisioning de tous les composants d’une chaîne de services distribués.

SDN 2, le service de bout-en-bout

Autour de l’orchestration, de la gestion des flux et de l’automatisation des services, toute l’industrie IT peaufine actuellement les technologies permettant de délivrer le service de bout-en-bout. “Dans les infrastructures réseaux mobiles, le client final passe déjà dans une chaîne de services très automatisée. Des principes comparables sont déclinés, avec une programmation plus avancée, une remontée automatique d’informations pour prendre des décisions sur l’infrastructure Ethernet multi-gigabit.”

L’augmentation des débits et de la densité des commutateurs – avec plusieurs dizaines de Gigabits délivrés par port – offre une nouvelle souplesse d’administration au datacenter. Elle devrait faciliter l’émergence du réseau Ethernet programmable et soutenir une densification croissante des trafics réseaux entre les clusters, puis entre les centres de données eux-mêmes.

Cette augmentation des débits s’accompagne cependant d’une croissance en termes d’environnements à supporter, d’où la nécessité d’exposer une interface de programmation (API), comme un langage universel utilisable par des composants tiers.

 

Equipement prêt à l’emploi
ou à personnaliser

Le commutateur Ethernet se banalise tout en grimpant vers le très haut débit. Plusieurs vocables accompagnent ce phénomène depuis quelques mois. Outre-Atlantique, on évoque les switches bare metal et les white box, des boîtes blanches très simples à remplacer en cas de panne. Ces néologismes trahissent des accords de partenariats et des nuances techniques que le cabinet Forrester invite à mieux cerner.

Le commutateur Ethernet classique reste propriétaire : il est motorisé par ses propres circuits ASIC d’origine Broadcom, Marvell, ou Intel et par un logiciel ou OS réseau inclus. Sorti de son emballage, l’équipement est prêt à brancher et à aiguiller des paquets réseaux.

Le switch bare metal est vendu aux équipementiers sans aucun OS pré-chargé. Son concepteur exécute un simple cahier des charges puis revend la plateforme matérielle en marque blanche ou sous sa propre marque (Accton ou Alpha Networks). L’équipementier doit intégrer un OS réseau d’origine BigSwitch, Cumulus ou Pica8 par exemple. A l’instar de Facebook ou Google, le client final peut également personnaliser son commutateur réseau sur cette base technique.

La boîte blanche est un commutateur Ethernet bare metal embarquant un OS réseau pré-chargé, comme c’est le cas des modèles Arista 7250.

 

Modèles Arista