El hardware resolverá los problemas de rendimiento

Manfred Buchmann, como Director Senior de Ingeniería de Sistemas de EMEA, es una especie de "cerebro técnico" en Netapp. Para nosotros, echa un vistazo al centro de datos del futuro.

ITB: ¿Cuál es actualmente el mayor reto para los centros de datos?

Buchmann: El comportamiento de los usuarios ha cambiado. Hoy en día, ya no pueden esperar que ningún usuario espere por las ventanas de mantenimiento, ni pueden esperar tiempos de espera debido a la lentitud de la respuesta. Esto solía ser aceptado, pero hoy nadie espera 10 segundos a que se abra una ventana web. La expectativa es: un servicio debe estar siempre disponible de forma inmediata: desde servicios tradicionales como el ERP hasta la contabilidad de gastos de viaje en línea durante el fin de semana. Por tanto, los centros de datos están en plena transformación. Y esto en varios aspectos. En primer lugar, ¿cómo gestionar el centro de datos? En segundo lugar, qué servicios se prestan internamente o vienen de fuera porque ya no son relevantes para la actividad principal. En otras palabras, toda la gama de enfoques híbridos. Esto lleva a un cambio en el estilo de gestión de un centro de datos.

Buchmann: a nivel técnico, estos escenarios requieren que los servicios estén disponibles al cien por cien en todo momento. La conexión permanente sólo funciona si la tienen en todas las capas, es decir, en el nivel de la aplicación, el servidor, la red y el almacenamiento. Por tanto, la infraestructura de almacenamiento debe construirse de forma que no requiera tiempos de inactividad para cambios de hardware, actualizaciones de software o mantenimiento. Además, debe ofrecer la posibilidad de trasladar las cargas de trabajo de un lado a otro de forma dinámica o bajo demanda: de una controladora a otra, de un almacenamiento flash a unidades SATA, esto es lo que necesitamos allí: Así que el famoso equilibrio de carga.

¿Cómo se afronta el crecimiento exponencial de datos previsto?

Buchmann: Las cifras de IDC hablan de 35 zetabytes en 2020, actualmente estamos en dos zetabytes. Si lo desglosamos para una empresa, estamos hablando de un aumento de diez o quince veces de media. Ya nadie puede ocuparse de los problemas asociados en términos de personal, capacidad, consumo de energía o espacio. Así que necesitamos más tecnologías como la deduplicación, que reducen el volumen de datos, y necesitamos conceptos de almacenamiento por niveles.

ITB: El almacenamiento por niveles significa inevitablemente también datos por niveles, es decir, diferenciación en términos de datos para procesos operativos, copias de seguridad y archivo. ¿Cómo se aborda esto?

Buchmann: Se pueden tratar los datos como objetos a través de rejillas de almacenamiento, es decir, dotarlos de metadatos. Otra variante es almacenar siempre los datos en el dispositivo más barato y dotarlo de SLA. También se puede utilizar flash como caché para los datos operativos con el fin de acelerar capacidades de disco más baratas. Lo importante de estos enfoques híbridos es la flexibilidad de los datos. Y en el contexto de la gestión de metadatos, tienen que lidiar con las API. Para ello, la industria del almacenamiento acaba de adoptar el estándar CDMI. El objetivo de CDMI es disponer de una API uniforme para la gestión de contenidos, es decir, una especie de interfaz en la nube para datos basados en objetos. Esto significa que una aplicación correspondiente, como SAP u Oracle, puede comunicarse con todos los niveles de almacenamiento sin necesidad de adaptaciones especiales. Ahora es cuestión de que los fabricantes implementen este estándar.

Información adicional

Acerca de la persona

Manfred Buchmann es Director Senior de Ingeniería de Sistemas EMEA en Netapp. Sus actividades se centran en la integración de las ofertas de Netapp, Fujitsu y SAP en el contexto de proyectos exigentes como las arquitecturas scale-out o Big Data. Prefiere hacer esas tareas en colaboración con socios.

web | www.netapp.com/de

ITB: ¿Y qué dice su bola de cristal?

Buchmann: En cinco años tendremos tanta potencia en hardware que casi todo estará virtualizado. De este modo, los dispositivos físicos para la aceleración del software quedarán gradualmente obsoletos.

Deja un comentario