Comprendre la mise en réseau à l’échelle du Web

Dans le cadre d’une migration vers des environnements Cloud privés, publics et hybrides, de plus en plus d’entreprises réalisent d’énormes économies. Elles profitent également d’une flexibilité et d’une évolutivité pour les réseaux de Data Center ouverts, désagrégés et modulaires. L’architecture moderne de la mise en réseau à l’échelle du Web apporte évolutivité et agilité au Data Center ainsi qu’un coût total de possession (TCO) réduit suite à la baisse considérable des dépenses d’exploitation (OpEx).

Sujets

  • Mise en réseau définie par logiciel versus mise en réseau à l’échelle du Web

    La mise en réseau à l’échelle du Web est une approche architecturale moderne de l’infrastructure avec quelques principes clés. Les entreprises peuvent concevoir des réseaux agiles et rentables adaptés à notre ère moderne en adhérant à ces trois principes :

    • Ouverture et modularité
    • Intelligence des logiciels
    • Évolutivité et efficacité

    OUVERTURE ET MODULARITÉ

    Les logiciels ouverts et modulaires sont de plus en plus répandus chez les clients des grands groupes. Ces derniers se sont tournés vers cette nouvelle approche ouverte pour atteindre les objectifs d’efficacité en matière de conception de méga-Data Centers, sans avoir à construire eux-mêmes la pile de mise en réseau. Les premiers utilisateurs de ces systèmes ont pu oublier les systèmes coûteux et rigides du passé. Ce faisant, ils ont augmenté la vitesse à laquelle ils peuvent étendre et modifier les réseaux, et proposer plus d’applications rapidement et à un coût réduit. La mise en réseau ouverte est indissociable du DevOps. Ces deux aspects permettent de configurer et d’exploiter le réseau en toute flexibilité à l’aide d’outils d’automatisation et d’allocation. L’influence du DevOps sur la culture, les outils, les processus et la structure organisationnelle de l’informatique a permis de lancer des applications plus rapidement et de profiter d’un cadre expérimental permanent. Les entreprises ont donc repensé leur approche conventionnelle de l’informatique. L’informatique à l’échelle du Web crée une architecture plus résiliente pour la prise en charge de ces applications. Les équipes informatiques mettent en œuvre et gèrent des processus plus polyvalents, efficaces et agiles.

    INTELLIGENCE DES LOGICIELS

    L’intelligence des logiciels désigne essentiellement la capacité des entreprises à standardiser leur pile grâce à un modèle de système d’exploitation intelligent qui leur permet de choisir n’importe quelle application ouverte. L’intelligence des logiciels permet à l’entreprise de désagréger le logiciel. Elle dispose ainsi d’un choix, d’une flexibilité et d’une efficacité sans précédent.

    Aujourd’hui, lorsque vous choisissez un PC, vous choisissez votre système d’exploitation (comme Windows ou Linux) puis votre matériel (Dell ou HP, par exemple). La même logique est désormais applicable aux commutateurs réseau des Data Centers. Si une entreprise préfère certains types de logiciels, elle n’est pas cantonnée à un seul fournisseur de matériel pour leur exécution. Si elle préfère un type de matériel précis, elle n’est pas cantonnée à un seul fournisseur de logiciels. Le client dispose donc d’un choix supplémentaire. Il peut ainsi réduire considérablement ses coûts et profiter d’un vaste éventail d’applications et d’outils dédiés à l’automatisation, à la mise à l’échelle et à l’efficacité.

    ÉVOLUTIVITÉ ET EFFICACITÉ

    La configuration de réseaux modulaires dans l’architecture leaf/spine (également connue sous le nom de Clos) est exceptionnellement évolutive et efficace. L’architecture Clos peut évoluer très rapidement si nécessaire, car elle se comporte comme des blocs de LEGO dans le Data Center moderne. L’architecture leaf/spine offre une latence prévisible, car tous les hôtes sont équidistants les uns des autres. L’utilisation de toutes les liaisons par routage ECMP (multi-voies à coût égal) est prise en charge en natif via des protocoles de routage éprouvés et standardisés. L’utilisation du routage de couche 3 pour la redondance et le partage de charges élimine les contraintes d’agrégation de liaison multi-châssis (MLAG). Le protocole MLAG n’étant pas standardisé, il est détenu par le fournisseur. Ce dernier doit donc fournir les deux commutateurs appariés. De plus, le protocole MLAG limite la redondance à deux commutateurs : si un commutateur tombe en panne, vous perdez 50 % de la bande passante. En déployant le routage ECMP, vous pouvez personnaliser et définir la bande passante et la redondance.

    L’architecture ouverte et flexible n’est pas seulement efficace dans le cadre du trafic est-ouest, nouveau et colossal, du Data Center (trafic serveur-serveur ou serveur-stockage au sein du Data Center) ; il s’agit également d’une conception optimale pour les réseaux les plus modestes, comme pour les méga-Data Centers les plus volumineux. En effet, n’importe quelle entreprise de n’importe quelle taille peut profiter de la réduction des coûts et de gains d’efficacité.

    Les principes de mise en réseau à l’échelle du Web peuvent avoir un impact très durable sur une entreprise. Grâce à cette nouvelle approche, les entreprises sont généralement amenées à repenser totalement la conception des réseaux, les opérations et leurs pratiques de manière à disposer d’un Data Center flexible et évolutif.

    Elles multiplieront le nombre de commutateurs par ingénieur, réduiront les complexités du réseau, standardiseront les outils et les programmes, construiront des méthodes automatisées pour détecter les problèmes, amélioreront leurs délais de mise sur le marché. En un mot : elles obtiendront un meilleur réseau. Suite à ces améliorations, les entreprises peuvent faire évoluer leur infrastructure de manière efficace et abordable.

    Pensez à Google, Amazon, Facebook et Netflix (pour ne citer qu’eux). Ces géants ont ouvert la voie en prenant conscience de l’ampleur des avantages que les modèles traditionnels ne pouvaient tout simplement pas offrir. Le même modèle peut également être appliqué aux entreprises de toutes tailles et dans tous les secteurs. Chaque acteur peut récolter les fruits de ces nouveaux environnements agiles.

  • Clouds privés, publics et hybrides - Comparatif

    Le Cloud privé désigne l’approche consistant à héberger son propre Data Center exécutant des applications. Bien qu’il nécessite une maintenance, il est souvent le plus sûr. De plus, l’entreprise dispose d’un contrôle total sur les opérations, la conception et les applications exécutées. Avec l’avènement de la mise en réseau à l’échelle du Web, ce modèle devient bien plus abordable et souvent moins coûteux que le Cloud public.

    Le Cloud public désigne un Data Center hébergé et maintenu par un fournisseur externe, tel que Amazon AWS ou Microsoft Azure, qui est loué à d’autres entreprises. Ici, une entreprise paie généralement des frais de location et reçoit l’accès et les droits d’utilisation du matériel ou des logiciels spécifiques sur le Data Center hébergeur. Au plus haut niveau, prenons l’exemple de l’exécution de la boutique en ligne de votre entreprise dans Microsoft Azure : l’application fonctionne en fait sur des serveurs des Data Centers de Microsoft, mais vous pouvez y accéder moyennant des frais récurrents. Le Cloud public est souvent le choix facile. Mais il peut s’avérer coûteux et insuffisamment flexible par rapport à l’évolutivité dont l’entreprise a besoin.

    Les entreprises utilisant un environnement Cloud public gèrent souvent un Cloud privé plus petit. Ce modèle porte un nom : le Cloud hybride. Avec un Cloud hybride, votre entreprise fournit certaines applications dans son propre Data Center, mais en loue d’autres sur un Data Center public. Les entreprises utilisent cette approche pour de nombreuses raisons :

    • Tâter le terrain : elles testent et élaborent un environnement Cloud privé tout en gérant un environnement public.
    • La restriction des ressources : elles ne disposent peut-être pas des capacités suffisantes en interne pour tirer pleinement parti d’un Cloud privé.
    • La diversification : elles peuvent répartir différents types d’opérations organisationnelles dans chaque environnement pour plus d’efficacité.
    • Les économies : l’environnement Cloud public peut être perçu comme trop coûteux pour toutes les opérations. Elles sont donc réparties en conséquence.
    • La sauvegarde : elles peuvent simplement utiliser un Cloud privé pour le développement, les tests, la sauvegarde, la redondance et le contrôle.

    Tout dépend de votre entreprise. Mais de nombreux acteurs commencent par le Cloud privé pour « tâter le terrain ». Une entreprise avec un réseau traditionnel peut par exemple souhaiter créer un réseau informatique à l’échelle du web en vue d’améliorer son agilité et de réduire les coûts. Souvent, ces entreprises migrent d’abord des charges de travail non critiques vers le Cloud privé pour découvrir ce nouvel environnement. Lorsque le résultat est satisfaisant, elles commencent à y déplacer des charges de travail critiques.

    Les déploiements sur le Cloud privé sont faciles en matière d’allocation, de capacité et de performances lorsqu’ils ont lieu sur une architecture moderne. Ils sont également moins coûteux. Lorsque les entreprises élaborent un environnement Cloud privé, elles reproduisent l’approche des grands groupes informatiques.

    Elles utilisent des environnements Cloud publics pour tester des applications ou activer des services rapidement et facilement, ce qui renforce l’agilité et la capacité d’innovation. D’autres acteurs déploient une combinaison d’environnements Cloud privés et publics sur un Cloud hybride, en fonction de leurs méthodes de lancement d’applications ou des services nécessaires en interne pour soutenir leur entreprise.

  • La philosophie NetDevOps pour la mise en réseau à l’échelle du Web - Les avantages

    Passer à une architecture informatique à l’échelle du Web présente de nombreux avantages. Parmi eux, on compte principalement :

    • Une capacité à évoluer efficacement
    • Une capacité à automatiser facilement
    • Une réduction des coûts (Capex et Opex)
    • Une agilité informatique complète, pour des applications internes et externes disponibles à une vitesse record
    • La liberté de choisir votre combinaison de fournisseurs en fonction des besoins et du budget

    UNE CAPACITÉ À ÉVOLUER EFFICACEMENT

    Faire évoluer un réseau à l’échelle du Web à mesure que votre entreprise se développe est un jeu d’enfant. L’architecture leaf/spine est efficace, qu’il s’agisse de gérer trois racks ou des centaines. Il suffit d’ajouter des racks supplémentaires équipés de commutateurs leaf en cas de besoin et de les connecter aux commutateurs spine. Lorsque l’infrastructure devient trop grande, une couche supplémentaire peut être ajoutée au réseau. Il s’agit d’une conception très simple et modulaire optimisée à la fois pour le trafic est-ouest (communication entre serveurs) et le trafic nord-sud (accès au Data Center depuis l’extérieur). Ce modèle peut être étendu sans avoir à modifier le réseau existant.

    UNE CAPACITÉ À AUTOMATISER FACILEMENT

    Lorsque vous standardisez votre réseau à l’aide de commutateurs Linux, vous pouvez tirer parti de tous vos outils d’automatisation actuels et de vos pratiques DevOps. Vous avez probablement entendu le terme « NetDevOps ». Voilà précisément de quoi il est question ici.

    NVIDIA assure une expérience fiable entre le réseau et le calcul. Vous pouvez automatiser l’intégralité du cycle de vie opérationnel des périphériques réseau, de la configuration et de l’allocation à la gestion des modifications basée sur la stratégie. Utilisées de concert avec les capacités d’automatisation de NVIDIA® Cumulus Linux, ces approches de mise en réseau modernes permettent de réduire vos coûts, d’améliorer votre efficacité, d’accroître votre ratio opérateur-commutateur et d’éviter les aspects complexes et problématiques.

    UNE AGILITÉ INFORMATIQUE COMPLÈTE

    Les réseaux modernes de Data Centers s’appuient sur l’automatisation. Le déploiement d’un nouveau rack, et donc des applications et des services qu’il prend en charge, est bien plus rapide qu’avec le modèle traditionnel. L’ONIE (Open Networking Install Environment) est utilisé pour charger automatiquement un système d’exploitation. Le ZTP (zero-touch provisioning) est utilisé pour la configuration initiale, et les outils DevOps sont utilisés pour configurer et gérer tous les serveurs et commutateurs sur le rack. Cela signifie que le serveur et les commutateurs reliés aux serveurs peuvent être mis en ligne simultanément. Le délai de lancement des applications est donc réduit. Ainsi, votre équipe informatique peut fournir des applications avec des accords de niveau de service (SLA) plus élevés et des temps de déploiement beaucoup plus courts.

    L’influence du DevOps dans la combinaison des connaissances et des processus appliqués au développement de logiciels, à l’assurance qualité et à l’informatique a permis de produire une méthode plus contemporaine, collaborative et agile pour développer et tester les logiciels. La disponibilité publique a ainsi été améliorée. L’introduction de cette méthodologie dans le domaine du réseau porte un nom : NetDevOps.

    En optant pour cette philosophie NetDevOps, l’entreprise informatique devient véritable un partenaire de confiance, et non plus une simple équipe d’assistance disponible en permanence, uniquement sollicitée en urgence en cas de défaillance des systèmes logiciels et matériels. Le service informatique prend la place qui lui est due : il devient un partenaire proactif et non plus une simple équipe réactive gérant la récupération après sinistre. Cet état d’esprit s’est naturellement répandu dans l’architecture informatique à l’échelle du Web, dont l’adoption ne cesse de croître dans les Data Centers du monde entier.

    LA LIBERTÉ DE CHOIX

    La capacité d’une entreprise à choisir indépendamment le logiciel et le matériel (et ce jusqu’à ses dispositifs optiques), permet non seulement de réduire les coûts, mais également de choisir l’aspect le mieux adapté à ses besoins.

  • Mise en réseau à l’échelle du Web - Les technologies disponibles

    NVIDIA développe des technologies et des logiciels intelligents afin de fournir des solutions conçues pour l’automatisation et la mise à l’échelle. Cumulus Linux, notre système d’exploitation réseau (NOS), fonctionne avec plus de 50 plates-formes fournisseurs et offre une architecture ouverte et flexible, un lancement informatique plus rapide, ainsi que des capacités d’automatisation et de mise à l’échelle. Nous renforçons continuellement notre technologie pour optimiser l’approche de mise en réseau à l’échelle du Web grâce à des fonctionnalités innovantes créées en interne, telles que le mode de transfert de paquets (PTM), le VPN Ethernet (EVPN), l’utilitaire de ligne de commande réseau (NCLU), et bien plus encore.

    Nous avons également conscience que le NOS n’est qu’un rouage. Nous proposons également une gamme de services, de produits et d’outils pédagogiques qui vous permettent de mettre en service votre réseau de Data Center moderne rapidement et facilement.

    Lors de la création de votre Data Center à l’échelle du Web, vous devez tenir compte des types de technologies que vous souhaitez exploiter en fonction de leur efficacité, de leur puissance et de vos besoins organisationnels au sens large. Nous mettons à disposition des informations sur plusieurs de nos cas d’utilisation et de nos solutions. Mais nous croyons également que le miracle de l’informatique à l’échelle du Web est qu’elle permet de construire un réseau spécifiquement adapté aux besoins de votre entreprise. Voici quelques cas d’utilisation à prendre en compte.

    VIRTUALISATION DE RÉSEAU

    La virtualisation de réseau consiste à séparer la couche réseau de la dépendance au matériel sous-jacent. Par exemple, un réseau local virtuel (VLAN) est une virtualisation de couche 2 qui divise le réseau local en sous-réseaux distincts, souvent utilisés pour répartir le trafic sur le même câble matériel. En outre, la virtualisation de réseau peut impliquer l’exécution de segments de couche 2 sur un réseau de couche 3. À l’image de l’allocation dans le Cloud, la virtualisation permet d’approvisionner le réseau afin de pouvoir créer autant d’instances que vous le souhaitez, et ainsi accompagner votre évolution.

    NVIDIA est compatible avec les outils de virtualisation de réseau de fournisseurs tels que VMware, Midokura, Akanda et d’autres, via Cumulus Linux. Plus besoin de vous sosucier du modèle et de l’architecture que vous allez choisir. Le composant de mise en réseau s’exécute en arrière-plan, dans la plus grande simplicité.

    L’AUTOMATISATION DE RÉSEAU

    L’automatisation est un élément clé de la mise en réseau à l’échelle du Web, car elle permet de réduire la demande en ressources, de limiter les erreurs et aide les opérateurs à gérer davantage de commutateurs. En optant pour un modèle de mise en réseau ouverte, les entreprises tirent parti des outils d’automatisation existants ainsi que des pratiques DevOps.

    Bon nombre des outils d’automatisation utilisés depuis des années dans le secteur de l’informatique ont été migrés dans le monde de la mise en réseau. Grâce à Cumulus Linux, vous pouvez automatiser l’intégralité du cycle de vie opérationnel des périphériques réseau, de la configuration et de l’allocation à la gestion des modifications basée sur la stratégie. L’automatisation d’un réseau permet d’accélérer et de simplifier sa configuration et son fonctionnement, ce qui élimine les incohérences et les erreurs de configuration humaines et le contrôle des versions.

    OPENSTACK

    Jusqu’à ce que la mise en réseau ouverte devienne une méthodologie disponible, les clusters OpenStack étaient aussi flexibles que le commutateur Top-Of-Rack. Les clients pouvaient profiter des standards de calcul et de stockage ouverts, mais la mise en réseau demeurait un goulot d’étranglement.

    Grâce à la mise en réseau à l’échelle du Web, cet aspect change du tout au tout. Avec Cumulus Linux, toute la pile peut exécuter Linux. Les plans de données et de contrôle « parlent la même langue » : les interfaces complexes de programmation d’applications (API) ou de ligne de commande réseau (CLI) deviennent inutiles.

  • Comment Cumulus Linux et SONiC prennent en charge l’informatique à l’échelle du Web ?

    NVIDIA est le leader de la mise en réseau à l’échelle du Web. Nous promouvons une approche architecturale à l’échelle du Web sur le réseau. Il s’agit d’une partie critique du Data Center traditionnellement perçue comme un obstacle au déploiement rapide des applications.

    Grâce à Cumulus Linux et/ou SONiC, nos clients peuvent gérer les réseaux de leurs Data Centers comme Google et Facebook le font depuis des années : de façon hautement automatisée, sans périodes prolongées de développement ou matériel spécialisé coûteux. Toutefois, pour les clients qui ne souhaitent pas automatiser, nous avons également développé NCLU, une interface de ligne de commande moderne permettant de configurer le commutateur.

    Par rapport aux anciens modèles informatiques, le matériel peut coûter jusqu’à six fois moins cher. Mais la différence opérationnelle est encore plus spectaculaire : un administrateur peut superviser 500 commutateurs (contre 20 auparavant), et l’approvisionnement se compte en heures ou en minutes (et non plus en jours ou en semaines).

    Vous souhaitez découvrir comment NVIDIA peut aider votre entreprise ? Échangez dès aujourd’hui avec un expert de l’informatique à l’échelle du Web.

Vous préférez faire un essai avant d’acheter ? Essayez NVIDIA Cumulus Linux gratuitement.