Explicación de las redes a escala web

En el paso a entornos de nube privada, pública e híbrida, cada vez más organizaciones se están dando cuenta de los enormes ahorros de costes, la flexibilidad y la escalabilidad de las redes de centros de datos abiertas, desagregadas y modulares. La moderna arquitectura de redes a escala web proporciona escalabilidad y agilidad en el centro de datos, al tiempo que reduce el coste total de propiedad (TCO) al rebajar drásticamente el gasto operativo (OpEx).

Temas

  • Redes definidas por software frente a redes a escala web

    Las redes a escala web son un enfoque moderno de la infraestructura basado en la arquitectura, con algunos principios clave. Las empresas pueden diseñar redes rentables y ágiles para la era moderna adhiriéndose a estos tres principios:

    • Apertura y modularidad
    • Inteligencia en el software
    • Escalabilidad y eficiencia

    APERTURA Y MODULARIDAD

    Cada vez más, los clientes empresariales generales adoptan el software abierto y modular. Las empresas generales han comenzado a utilizar este nuevo enfoque abierto para lograr los objetivos de eficiencia de los megacentros de datos sin tener que crear ellos mismos la pila de redes. Los primeros en adoptar estos sistemas han podido abandonar los costosos e inflexibles sistemas del pasado. Han aumentado así la velocidad a la que pueden ampliar y modificar las redes, con el fin de entregar más aplicaciones rápidamente y a un coste reducido. Las redes abiertas van de la mano con DevOps. Juntos, proporcionan la capacidad de configurar y operar la red de forma ágil mediante herramientas de automatización y aprovisionamiento. La influencia de DevOps en la cultura, las herramientas, los procesos y la estructura organizativa de TI ha dado como resultado la aceleración de la entrega de aplicaciones y un entorno de experimentación continua, lo que ha causado que las organizaciones reconsideren los preceptos convencionales de sus operaciones de TI. La TI a escala web crea una arquitectura más resistente para esas aplicaciones, lo que permite a los equipos de operaciones de TI implementar y dar soporte a procesos más ligeros, eficientes y ágiles.

    INTELIGENCIA EN EL SOFTWARE

    La inteligencia en el software significa, esencialmente, que las empresas son capaces de estandarizar la pila con un modelo de sistema operativo inteligente que permite elegir cualquier aplicación abierta. La inteligencia en el software permite a una empresa desagregar el software para lograr una capacidad de elección, una flexibilidad y una eficiencia sin precedentes.

    Al igual que sucede con el sector de los PC hoy en día, donde se elige el sistema operativo (como Windows o Linux) y luego el hardware para ejecutarlo (Dell o HP, por ejemplo), ahora se puede hacer lo mismo con los conmutadores de red del centro de datos. Si una empresa prefiere un software específico, no está limitada a un solo proveedor de hardware para ejecutarlo. Si prefiere un hardware específico, no está limitada a un solo proveedor de software. Esto proporciona al cliente más opciones, lo que puede reducir significativamente los costes y abre la puerta a una variedad de aplicaciones y herramientas de automatización, escalado y eficiencia.

    ESCALABILIDAD Y EFICIENCIA

    La construcción de redes modulares en la arquitectura de hoja/lomo (también conocida como Clos) es excepcionalmente escalable y eficiente. La arquitectura Clos puede alcanzar una gran escala si es necesario, ya que actúa como bloques de construcción LEGO para el centro de datos moderno. La arquitectura hoja/lomo proporciona una latencia predecible, ya que todos los hosts están igualmente distantes, y permite de forma nativa la utilización de todos los enlaces a través del enrutamiento de múltiples rutas de igual costo (ECMP) por medio de protocolos de enrutamiento maduros y estandarizados. El uso del enrutamiento de capa 3 para redundancia y el uso compartido de cargas elimina las restricciones de la agregación de enlaces multichasis (MLAG). Dado que MLAG no está estandarizado, está cerrado al proveedor, lo que significa que ambos conmutadores deben ser del mismo proveedor. Además, MLAG limita la redundancia a dos conmutadores: si se produce un error en un conmutador, el ancho de banda se reduce al 50 %. Al implementar el enrutamiento con ECMP, puedes personalizar y definir el ancho de banda y la redundancia.

    La arquitectura abierta y flexible no solo es eficiente para el nuevo y mayor tráfico del centro de datos este-oeste (tráfico de servidor a servidor o de servidor a almacenamiento dentro del centro de datos): también es un diseño óptimo tanto para redes muy pequeñas como para los megacentros de datos. Es así porque cualquier organización de cualquier tamaño puede beneficiarse de la reducción de costes y la eficiencia.

    Los principios de las redes a escala web pueden tener un impacto duradero en una organización. Con este nuevo enfoque, las empresas generalmente rehacen por completo el diseño, las operaciones y las prácticas de red para lograr libertad y escala en el centro de datos.

    Las organizaciones multiplican el número de conmutadores por ingeniero, reducen las complejidades de la red, estandarizan herramientas y programas, crean métodos automatizados para detectar problemas, mejoran el tiempo de comercialización y, en general, construyen una red mejor. Estas mejoras facilitan un escalado eficiente y asequible.

    Piensa en Google, Amazon, Facebook y Netflix (por nombrar algunos), que han abierto camino en el aprovechamiento de una amplitud y profundidad que los modelos tradicionales simplemente no pueden ofrecer. El mismo modelo también se puede aplicar a organizaciones de todos los tamaños y sectores, que pueden cosechar los beneficios de estos nuevos entornos ágiles.

  • Comparación de nubes privadas, públicas e híbridas

    Cuando una organización hospeda un centro de datos propio que ejecuta aplicaciones, se considera una nube privada. Aunque requiere mantenimiento, a menudo es el entorno más seguro y la empresa tiene control total sobre las operaciones, el diseño y las aplicaciones que ejecuta. Con la llegada de las redes a escala web, este modelo se está volviendo mucho más asequible y, con frecuencia, es menos costoso que la nube pública.

    Una nube pública es un centro de datos alojado y mantenido por un proveedor externo, como Amazon AWS o Microsoft Azure, y que se alquila a otras empresas. En este caso, una empresa normalmente paga una tarifa de arrendamiento y se le proporciona acceso y derechos para usar hardware o software específico del centro de datos de hospedaje. Como ejemplo de alto nivel, supongamos que tienes la tienda en línea de tu empresa en Microsoft Azure: la aplicación se ejecuta realmente en servidores de centros de datos de Microsoft, pero se te permite acceder a ella por una tarifa continua. El método de nube pública es a menudo una opción fácil, pero puede ser costoso y, por tanto, poco flexible, ya que limita la capacidad de una organización para escalar.

    Las empresas que utilizan un entorno de nube pública a menudo mantienen una nube privada más pequeña, un modelo conocido como nube híbrida. Con una nube híbrida, tu empresa proporciona algunas aplicaciones en tu propio centro de datos, pero alquila otras desde un centro de datos público por una tarifa. Las organizaciones usan este enfoque por muchas razones:

    • Se pueden tantear las aguas: se puede probar y construir un entorno de nube privada mientras se mantiene uno público.
    • Restricción de recursos: es posible que una organización no tenga suficiente capacidad interna para aprovechar al máximo una nube privada.
    • Diversificación: se pueden dividir diferentes tipos de operaciones entre ambos entornos, para mayor eficiencia.
    • Ahorro de costes: pueden encontrar el entorno de nube pública demasiado caro para todas las operaciones, por lo que deciden dividirlas.
    • Copia de seguridad: pueden usar una nube privada para el desarrollo, las pruebas, las copias de seguridad, la redundancia y el control.

    Depende de tu organización, pero muchas empresas comienzan con la adopción de la nube privada para tantear las aguas. Por ejemplo, una empresa con una red tradicional podría crear una red de TI a escala web para mejorar la agilidad y reducir los costes. A menudo, estas empresas migran primero las cargas de trabajo no críticas a la nube privada para acostumbrarse al nuevo entorno. Cuando están satisfechas con los resultados, comienzan a mover cargas de trabajo críticas a la nube privada.

    Las implementaciones de nube privada con una arquitectura moderna facilitan el aprovisionamiento y mejoran la capacidad, el rendimiento y los costes. Cuando las empresas crean un entorno de nube privada, emulan a las organizaciones de TI a gran escala.

    Las empresas pueden utilizar entornos de nube pública para probar aplicaciones o habilitar servicios rápidos y sin fricciones, lo que confiere agilidad y estimula la innovación. Otras empresas implementan alguna combinación de entornos de nube privada y pública en una nube híbrida, dependiendo de sus métodos de entrega de aplicaciones o de los servicios internos necesarios para su organización.

  • Las ventajas de las redes a escala web NetDevOps

    El cambio a una arquitectura de TI a escala web proporciona muchos beneficios a una organización. Principalmente:

    • Capacidad de escalar de manera eficiente
    • Capacidad de automatizar fácilmente
    • Reducción de costes tanto en Capex como en Opex
    • Agilidad completa de TI, se pueden entregar aplicaciones internas y externas a una velocidad récord
    • Libertad para elegir cualquier combinación de proveedores en función de las necesidades y el presupuesto

    CAPACIDAD DE ESCALAR DE MANERA EFICIENTE

    Es fácil escalar una red a escala web a medida que tu negocio crece. La arquitectura hoja/lomo es eficaz para administrar desde tres racks hasta cientos de ellos. Solo tienes que agregar racks adicionales con interruptores de hoja según surja la necesidad y conectarlos a los interruptores de lomo. Si se vuelve demasiado grande, se puede agregar un nivel adicional a la red. Es un diseño modular muy simple y optimizado tanto para el tráfico este-oeste (comunicación entre servidores) como para el norte-sur (acceso al centro de datos desde el exterior). Este modelo permite la expansión sin tener que tocar la red existente.

    CAPACIDAD DE AUTOMATIZAR FÁCILMENTE

    Al estandarizar la red con conmutadores basados en Linux, puedes aprovechar todas las herramientas de automatización existentes y las prácticas de DevOps. Probablemente hayas escuchado el término NetDevOps: esto es exactamente a lo que se refiere.

    NVIDIA ofrece una experiencia coherente entre la red y la computación. Puedes automatizar el ciclo de vida operativo completo de los dispositivos de red, desde la configuración y el aprovisionamiento hasta la gestión de cambios basada en directivas. Al emplear estos modernos enfoques de red para la automatización con NVIDIA® Cumulus Linux, puedes reducir los costes, mejorar la eficiencia, mejorar su relación operador-conmutador y reducir las complejidades y los problemas.

    AGILIDAD COMPLETA DE TI

    Las redes modernas de centros de datos utilizan cada vez más la automatización. La implementación de un nuevo rack y, por lo tanto, de las aplicaciones y servicios que hospeda, es mucho más rápida que en el modelo tradicional. Se utiliza Open Networking Install Environment (ONIE) para cargar automáticamente un sistema operativo, la configuración inicial se realiza con el aprovisionamiento sin intervención (ZTP) y las herramientas DevOps se emplean para configurar y mantener todos los servidores y conmutadores del rack. Esto significa que el servidor y los conmutadores que conectan los servidores se pueden poner en línea simultáneamente, lo que reduce el tiempo necesario para entregar las aplicaciones. Por tanto, tu equipo de TI puede ofrecer aplicaciones con acuerdos de nivel de servicio (SLA) más altos y tiempos de implementación muy reducidos.

    La influencia de DevOps en la combinación de conocimientos y procesos dentro del desarrollo de software, el control de calidad y los profesionales de TI ha creado un método más nuevo, colaborativo y ágil de desarrollo y prueba de software, lo que resulta en una disponibilidad general (GA) más rápida. El traslado de esta metodología a la red a menudo se conoce como NetDevOps.

    Con esta mentalidad de NetDevOps, la organización de TI se transforma en un socio de confianza, no en un equipo de soporte técnico ininterrumpido al que solo se llama para apagar fuegos cuando fallan los sistemas de software y hardware. El departamento de TI ocupa el lugar que le corresponde como socio proactivo, en vez de ser un equipo reactivo de recuperación ante desastres. Esta mentalidad ha fluido de forma natural a la arquitectura de TI a escala web que se adopta cada vez más en los centros de datos de todo el mundo.

    LIBERTAD DE ELECCIÓN

    La capacidad de una empresa para elegir de forma independiente desde el software y el hardware hasta la óptica, permite no solo reducir costes, sino también elegir qué aspectos son mejores para sus necesidades.

  • La tecnología disponible para redes a escala web

    NVIDIA desarrolla software y tecnologías inteligentes que proporcionan soluciones diseñadas para la automatización y la escala. Nuestro sistema operativo de red (NOS), Cumulus Linux, funciona con más de 50 plataformas de proveedores y ofrece una arquitectura abierta y flexible, así como mayor velocidad en la entrega de TI, la automatización y el escalado. Estamos expandiendo continuamente la tecnología para optimizar el enfoque de redes a escala web, con características que hemos innovado internamente, como el modo de transferencia de paquetes (PTM), Ethernet VPN (EVPN), la utilidad de línea de comandos de red (NCLU) y más.

    También entendemos que NOS es solo una pieza del rompecabezas. También ofrecemos una gama de servicios, productos y formación para poner en marcha su moderna red de centros de datos de forma rápida y sencilla.

    Al crear el centro de datos a escala web, debes considerar qué tipos de tecnología deseas aprovechar para lograr eficiencia y potencia, y satisfacer las necesidades generales de tu organización. Ofrecemos información sobre varios de nuestros casos de uso y soluciones, pero también creemos que la belleza de la TI a escala web es que permite construir su red a la medida de las necesidades de tu organización. Estos son algunos casos de uso a tener en cuenta.

    VIRTUALIZACIÓN DE RED

    La virtualización de red implica separar la capa de red de la dependencia del hardware subyacente. Por ejemplo, una red de área local virtual (VLAN) es una virtualización de capa 2 que divide la red local en subredes independientes que a menudo se usan para separar el tráfico a través del mismo cable de hardware. Además, la virtualización de red puede implicar la ejecución de segmentos de capa 2 a través de una red de capa 3. Al igual que el aprovisionamiento en la nube, la virtualización habilita el aprovisionamiento de red para que puedas crear tantas instancias como necesites, lo que permite escalar a medida que creces.

    NVIDIA interactúa con herramientas de virtualización de red de proveedores como VMware, Midokura, Akanda y otros a través de Cumulus Linux, por lo que no tienes que preocuparte por qué modelo y arquitectura elegir. El componente de red simplemente funciona bajo el capó.

    AUTOMATIZACIÓN DE LA RED

    La automatización es un componente clave de las redes a escala web, ya que reduce las demandas de recursos, mitiga los errores y ayuda a los operadores a administrar más conmutadores. Al elegir un modelo de red abierto, las empresas pueden aprovechar las herramientas de automatización existentes, así como las prácticas de DevOps.

    Muchas de las herramientas de automatización empleadas durante años en el mundo de la computación se han migrado al mundo de las redes. Con Cumulus Linux, puedes automatizar el ciclo de vida operativo completo de los dispositivos de red, desde la configuración y el aprovisionamiento hasta la gestión de cambios basada en directivas. La automatización de una red facilita y acelera la configuración y la operación, lo que elimina inconsistencias y configuraciones erróneas por errores humanos y diferencias de versiones.

    OPENSTACK

    Hasta que las redes abiertas se convirtieron en una metodología disponible, los clústeres de OpenStack se veían limitados en su flexibilidad por el conmutador de la parte superior del rack. Los clientes podían aprovechar los estándares abiertos de computación y almacenamiento, pero las redes seguían siendo un cuello de botella.

    Esto cambia completamente con las redes a escala web. Con Cumulus Linux, toda la pila puede ejecutar Linux. Como el plano de datos y el plano de control hablan el mismo lenguaje, no hay necesidad de complejas interfaces de programación de aplicaciones (API) ni interfaces de línea de comandos de red (CLI).

  • Cómo Cumulus Linux y SONiC permiten la TI a escala web

    NVIDIA es el líder en redes a escala web. Hacemos posible un enfoque de arquitectura de TI a escala web en la red, una parte crítica del centro de datos que tradicionalmente ha sido un cuello de botella para la implementación rápida de aplicaciones.

    Con Cumulus Linux y/o SONiC, nuestros clientes pueden ejecutar sus redes de centros de datos de la manera en que Google y Facebook llevan haciendo años, con una automatización muy elevada pero sin el tiempo de desarrollo ni el hardware costoso y especializado. Sin embargo, para los clientes que no desean automatizar, también hemos desarrollado NCLU, que proporciona una interfaz de línea de comandos moderna para configurar el conmutador.

    El hardware puede costar una sexta parte de lo que costaba en los modelos de TI heredados, pero la diferencia operativa es aún más espectacular: un administrador puede supervisar 500 conmutadores frente a los 20 anteriores, y el aprovisionamiento tarda horas o minutos, y no días o semanas.

    ¿Te interesa saber cómo puede NVIDIA ayudar a tu negocio? Habla hoy mismo con un experto en TI a escala web.

¿Prefieres probar antes de comprar? Prueba NVIDIA Cumulus Linux gratis.