Nunca se tiene suficiente poder

¿Poder? ¡Suficiente! La legendaria respuesta de Rolly-Royce a la pregunta sobre la potencia de los ocho y los doce cilindros rara vez se aplica en la informática. Como norma, se aplica el principio del carnicero: "¿Quiere un poco más?

Las exigencias cada vez mayores de los vídeos y las aplicaciones analíticas o las ya inevitables precauciones de seguridad hacen que aumente constantemente la demanda de los departamentos y los usuarios de un rendimiento informático cada vez más rápido, con tasas de crecimiento que tienden a aumentar. Un disco más no es suficiente. Y los departamentos de TI sólo pueden satisfacer este hambre con nuevas tecnologías de servidores y conceptos de escalado inteligentes. No obstante, las ventas mundiales de servidores cayeron de 2018 a 2019. ¿Cómo encaja todo esto?

Incluso con la llegada de la virtualización, a los fabricantes de servidores se les auguraba un futuro gris en el mejor de los casos. De hecho, debido a la optimización asociada de la utilización de los dispositivos, el número de unidades disminuyó. Pero gracias a la mayor exigencia del hardware, el precio por servidor subió en compensación.

La nube crece y los servidores se estancan

Ahora se hacen predicciones similares por la creciente aceptación del IaaS (Infraestructura como Servicio), ya que se eliminan parcialmente los equipos iniciales y la demanda acumulada de los centros de datos propiedad de las empresas. "De acuerdo, entonces sólo venderemos los servidores a los proveedores", es el deseo de muchos proveedores. Pero muchos prefieren construir sus servidores ellos mismos, o encargarlos a fabricantes contratados. Así que el cambio de grupos objetivo no es tan sencillo. No obstante, IDC prevé un aumento de las ventas en el mercado de servidores de Europa Occidental hasta 2020. La fantasía, sin embargo, está en el mercado de Iaas, que se espera que supere al de servidores en volumen total por primera vez en 2023. Según las previsiones, este último se "estancará", como mínimo, en un nivel elevado de más de diez mil millones de dólares.

Los sistemas hiperconvergentes, en cambio, están experimentando un auténtico boom. Ya ha tardado bastante. Hace ya cinco años, los fabricantes correspondientes las proclamaron como "la próxima gran cosa". Pero tardó más de lo esperado -o de lo que se esperaba- en ser aceptado y aplicado en la práctica. En 2018, se logró el avance. En comparación con el año anterior, las ventas mundiales aumentaron más del 50%, hasta los 4.400 millones de dólares. Y para 2019 se espera añadir otro 45% a estas impresionantes ventas. Una verdadera historia de éxito. Por el contrario, las arquitecturas de referencia y los sistemas de infraestructura integrados están estancados. Las ventas de los sistemas de pila integrada incluso están disminuyendo, pero sólo desempeñan un papel marginal en el mercado de los servidores.

Si miramos las ventas por proveedor/fabricante, las cifras de IDC muestran muchos perdedores y un claro ganador: El recién llegado chino Inspur está causando mucho movimiento, ahora también en el mercado alemán A la vista de la ofensiva de Inspur, deberían saltar las alarmas en la competencia. Supermicro, por ejemplo, amplió rápidamente su centro de fabricación europeo en los Países Bajos e introdujo un nuevo programa de socios de canal con ofertas de servicio ampliadas. Será emocionante ver cómo se reorganizan las cosas y, sobre todo, si Inspur puede establecerse también en el mercado alemán con un éxito similar.

HCI y la nube híbrida

El auge de los sistemas hiperconvergentes también está relacionado con el hecho de que son comparativamente fáciles de integrar en los conceptos de nube híbrida, cada vez más populares, o incluso de nube múltiple híbrida. Dado que una infraestructura hiperconvergente combina recursos informáticos, de almacenamiento y de red virtualizados en una sola plataforma y los gestiona de forma conjunta, es relativamente fácil trasladar cargas de trabajo individuales desde el propio centro de datos a diferentes proveedores de nube y traerlas de vuelta. Los sistemas hiperconvergentes actuales también soportan múltiples hipervisores y entornos virtuales y ahora también contenedores Docker con Kubernetes como sistema de orquestación.

La creciente importancia de las tecnologías de contenedores también queda ilustrada por las respuestas que recibimos de las casas de sistemas a la siguiente pregunta: "¿Cómo de pronunciada es la tendencia entre sus clientes hacia la siguiente etapa del Centro de Datos Definido por Software, es decir: se están sustituyendo las soluciones clásicas de virtualización por tecnologías de contenedores para facilitar el camino hacia la multi-nube híbrida?"

Los contenedores no pueden sustituir ni sustituirán a las soluciones de virtualización clásicas, pero son especialmente adecuados para las aplicaciones que se utilizan de forma portátil en infraestructuras híbridas.

Otra ventaja de las infraestructuras hiperconvergentes (HCI) es que están fundamentalmente definidas por software. Los componentes de hardware se abstraen bajo una capa de software que permite una gestión sencilla de todos los nodos. Otras características incluyen una amplia automatización y APIs para DevOps. Esto significa que se pueden configurar y poner en funcionamiento fácilmente incluso sin un gran departamento de TI con personal especializado. Esto es una ventaja, especialmente para su uso en sucursales y centros de datos de borde. En los centros de datos de las empresas, la HCI facilita relativamente la creación de estructuras de alta disponibilidad.

El problema de la falta de escalabilidad ya no se plantea con la HCI en la misma medida que en los primeros años de la tecnología. La ventaja es que los sistemas hiperconvergentes suelen utilizar ahora servidores estándar fácilmente ampliables. Por ejemplo, algunos nodos de computación comunes hoy en día ofrecen la opción de expansión con tarjetas GPU para cargas de trabajo de IA o aprendizaje automático. Con la implementación de una infraestructura hiperconvergente desagregada, la flexibilidad es aún mayor. La introducción de NVMe sobre Fabrics da un impulso adicional a este desarrollo.

Límites para los sistemas hiperconvergentes

Sin embargo, los sistemas hiperconvergentes en principio solo son útiles para cargas de trabajo virtualizadas. Sin embargo, en muchas empresas hay aplicaciones que sólo pueden funcionar con dificultad o no pueden funcionar en forma virtualizada. Las aplicaciones en tiempo real que requieren una baja latencia, como SAP Hana, las aplicaciones de big data o los sistemas de control de producción, son especialmente problemáticas. Si estas aplicaciones existen en paralelo en infraestructuras de servidores tradicionales y en infraestructuras hiperconvergentes, así como en la nube, esto se denomina TI bimodal, según Gartner. Las diferentes arquitecturas y conceptos de gestión que existen en este caso hacen que aumente el esfuerzo de administración y, por tanto, los costes.

La infraestructura componible (IC) promete una solución a este dilema: se trata de sistemas de infraestructura con un alto grado de abstracción que agregan recursos informáticos, como la potencia de cálculo, el almacenamiento y la red, a partir de un pool dinámico en función de las necesidades de la carga de trabajo y los transfieren de nuevo al pool al final de su uso. Este grupo está formado por diferentes componentes del sistema que están conectados por una red rápida y mallada. Los componentes heterogéneos del centro de datos, que incluyen servidores con VMs y contenedores, así como servidores bare metal, también están bajo una capa de gestión uniforme con APIs y un alto grado de automatización en CI.

Se definen plantillas para las cargas de trabajo individuales, que permiten aprovisionar los recursos rápidamente. Se dice que la IC es tan adecuada como la HCI para crear una nube múltiple híbrida. Sin embargo, una infraestructura componible sólo puede desarrollar todo su rendimiento si los componentes individuales de todo el centro de datos están conectados por una red con una latencia muy baja y un ancho de banda muy elevado, por ejemplo sobre la base de la fotónica de silicio. Sin embargo, las soluciones correspondientes están aún en fase de desarrollo.

Información complementaria sobre el tema
Voces de los socios: Bechtle

Roland König, Bechtle

Roland König, Bechtle

Notamos una tendencia hacia el uso de soluciones de contenedores y aplicaciones nativas en la nube. Sobre todo entran en juego con las nuevas aplicaciones. Sin embargo, los clientes seguirán utilizando las aplicaciones heredadas durante algunos años más, y los proveedores de software están respondiendo a ello. La nueva generación de software de gestión y automatización de la nube sirve por igual a los mundos antiguo y nuevo, independientemente de la nube y la aplicación que se utilice. Esto ayuda a controlar y gestionar los costes de infraestructura. Al mismo tiempo, ofrece a nuestros clientes la posibilidad de utilizar la tecnología adecuada para ellos. Esta libertad en la infraestructura es un aspecto crucial porque los datos y las aplicaciones determinarán el éxito de las empresas.

Tema adicional
Voz de los socios: Cancom

Manuel Ohnacker, Cancom

Manuel Ohnacker, Cancom

Independientemente de la industria, vemos una clara tendencia a realizar nuevos requisitos principalmente con las modernas tecnologías de contenedores. La alta tasa de adaptación es el resultado de una escalabilidad significativamente mayor, el uso más eficiente de los recursos del sistema y la portabilidad de las aplicaciones en infraestructuras híbridas. Sin embargo, los contenedores no pueden sustituir completamente a las actuales máquinas virtuales. Son más complejas de manejar, no son adecuadas para todo tipo de aplicaciones y, a día de hoy, las máquinas virtuales siguen ofreciendo un estándar de seguridad significativamente mayor que los contenedores. Apoyamos a las empresas en la elección de la tecnología adecuada y luego la proporcionamos como servicio gestionado o como Plataforma como Servicio

Complementario al tema
Voz de los socios: Computacenter

Ulf Schitkowsky, Computacenter

Ulf Schitkowsky, Computacenter

Implementamos la mayoría de las nuevas aplicaciones sobre la base de contenedores, porque las aplicaciones híbridas sólo pueden programarse de forma sensata de esta manera. Además, sólo los contenedores garantizan la movilidad de las aplicaciones en entornos multicloud de forma eficiente y eficaz. Sin embargo, las soluciones clásicas de virtualización siguen teniendo su lugar en las TI. También pueden utilizarse para implantar la TI multicloud, pero sin cumplir el requisito de movilidad. Las soluciones de virtualización clásicas seguirán siendo, sin duda, la base de las cargas de trabajo heredadas durante algunos años, porque el cambio a los contenedores es demasiado costoso o no es necesario. Los principios definidos por software para el almacenamiento, la red y la computación, así como el aprovisionamiento automatizado de servicios, también pueden realizarse de esta manera.

Comentarios adicionales sobre el tema
Comentarios de los socios: IT-Haus

Marc Zimmermann, IT-Haus

Marc Zimmermann, IT-Haus

Actualmente, no vemos la tecnología de contenedores como un sustituto de las soluciones de virtualización, sino como un bloque de construcción para el diseño orientado al futuro de una infraestructura. Las ventajas de la tecnología de contenedores, como la conservación de los recursos de hardware y la menor sobrecarga de los sistemas operativos y las máquinas virtuales, surten efecto sobre todo en entornos muy rápidos, complejos y altamente flexibles. Las medianas empresas suelen entrar en contacto con los contenedores sólo de forma indirecta, a través del consumo de ofertas de SaaS. En general, sin embargo, podemos ver una tendencia hacia la tecnología de contenedores. También esperamos que esta tendencia siga desarrollándose debido al creciente grado de interconexión y distribución.

Tendencias en los procesadores de servidores

A pesar de toda la abstracción, la "chapa", es decir, el servidor individual en el rack, sigue siendo la base en el centro de datos. Y aquí es donde están ocurriendo las cosas en los procesadores de servidores en este momento. Por primera vez en años, Intel se enfrenta a una importante competencia de AMD. Después de que la primera generación de procesadores Epyc de AMD tuviera una respuesta contenida, hay toda una serie de anuncios de los principales fabricantes de servidores para la segunda generación basada en la microarquitectura Zen 2. Esto se debe a que las CPU de servidor de la serie Epyc-7002 ofrecen hasta 64 núcleos, tienen ocho canales de memoria y, sobre todo, 128 carriles PCI Express 4.0. La CPU presenta un diseño de chiplets con un dispositivo de E/S de 14 nm de bajo coste como centro y hasta ocho chiplets de cálculo de 7 nm con ocho núcleos cada uno. Este diseño reduce los costes y permite una producción más flexible que un diseño monolítico.

El actual Cascade Lake de Intel ha llegado al final de la línea con 56 núcleos. El Xeon Platinum 9282, construido a partir de dos matrices de 28 núcleos, también está disponible soldado en módulos informáticos especiales en configuración de doble CPU. Intel fabrica los actuales modelos Xeon en un proceso de 14 nm. Según una hoja de ruta filtrada recientemente, los procesadores Xeon de 10nm de Intel no llegarán hasta el segundo trimestre. Entonces, estos modelos Ice Lake SP también soportarán PCIe 4.0, pero sólo tendrán un máximo de 26 núcleos.

Sin embargo, Intel sigue teniendo la ventaja de contar con un equipo de software significativamente mayor que garantiza un soporte óptimo para sus propios procesadores. Además, Cascade Lake ofrece Deep Learning Boost, un conjunto de instrucciones AVX-512 adicionales para aplicaciones HPC y de IA, así como soporte para Optane DC Persistent Memory.


Deja un comentario