Para la IA y las grandes bases de datos: CPU Cooper-Lake de Intel

La tercera generación de procesadores escalables Xeon de Intel está diseñada para servidores con cuatro u ocho zócalos. Las CPUs Cooper-Lake vienen con un Intel Deep Learning Boost mejorado para aplicaciones de IA. Además, en combinación con Optane PMem, es posible obtener hasta 18 TB de memoria en sistemas de 4 sockets.

Como desarrollo adicional de la familia Cascade-Lake, Intel lanza la tercera generación de procesadores Xeon Scalable para servidores con al menos cuatro sockets. Un total de once CPUs pertenecen a esta nueva generación de Cooper-Lake: cinco modelos Xeon Gold con 16 a 24 núcleos para sistemas de 4 sockets y seis procesadores Xeon Platinum para servidores con hasta ocho sockets de CPU. Tienen 18 o 28 núcleos. Al igual que en Cascade-Lake, cada una de las CPUs ofrece 48 carriles PCI Express 3.0 y seis canales de memoria DDR4. Con un módulo de memoria por canal, ahora también se admite DDR4-3200. Para lograr una conexión más rápida entre las CPU de la placa base, se ha duplicado el número de enlaces UPI de tres a seis. Ultra Path Interconnect (UPI) ha sustituido los enlaces QPI utilizados anteriormente en las CPUs Xeon con FCLGA3647.

Incremento del aprendizaje profundo con BFloat16

Si bien Intel con Xeon se ha quedado claramente por detrás de la generación Epyc de AMD en cuanto a número de núcleos por zócalo y rendimiento PCI Express, el fabricante de chips va por delante en el soporte de aplicaciones de IA a través de funciones especiales de la CPU. AMD aún no tiene nada que ofrecer aquí. En Cooper Lake, el Deep Learning Boost (DLBoost), que anteriormente consistía en las instrucciones de red neuronal vectorial (VNNI) para AVX-512, se complementó con el soporte para el formato de datos BFloat16 (BF16). Según Intel, esto aumenta la velocidad de entrenamiento e inferencia de la IA en un factor de 1,9 en comparación con FP32. La precisión disminuye sólo mínimamente. Los Xeon Cooper Lake son las primeras CPUs x86 con soporte BF16. La GPU A100 de Nvidia, presentada recientemente, también es compatible con BF16.

Más memoria con Optane PMem 200

Las variantes HL de los nuevos procesadores escalables Xeon son compatibles con la nueva serie Optane Persistant Memory 200 de Intel, de la que se dice que ofrece una tasa de transferencia de datos un 25% mayor en comparación con su predecesora. Los módulos de memoria no volátil Optane Memory (PMem) siguen estando disponibles en tamaños de módulo que van de 128 GB a 512 GB. Pueden utilizarse en las ranuras de memoria en lugar de los módulos DDR4 para aumentar el tamaño de la RAM y mantener la persistencia de los datos. Por cada zócalo de la CPU se pueden combinar 4,5 TB de memoria, 1,5 TB de DDR4 y 3 TB de PMem. Las grandes bases de datos en memoria, como SAP Hana, pero también las bases de datos Oracle, deberían beneficiarse de una recuperación más rápida. Además, más máquinas virtuales pueden ejecutarse al mismo tiempo, y las aplicaciones de análisis de datos como Apache Spark deberían ofrecer resultados más rápidamente.

KI FPGA: Stratix 10 NX

Un bloque de construcción adicional en la estrategia de IA de Intel es el chip FPGA Stratix 10 NX presentado junto con Cooper Lake. Esta primera FPGA de Intel optimizada para aplicaciones de IA cuenta con unidades tensoras especiales de IA, un paquete 3D con memoria HBM2 y una conexión de red más rápida.


Deja un comentario