Firmware: Actualizaciones para los sistemas de centros de datos

En los últimos días, Intel ha seguido avanzando para abordar las vulnerabilidades de firmware conocidas como “Spectre” y “Meltdown.” Continuamos apoyando a nuestros clientes en este proceso, y seguimos centrados en hacerlo.

Mientras continuamos con esa labor, quisiera expresar mi aprecio a muchos de nuestros socios, como son  Dell, HPE, HPI, Lenovo y Microsoft, por unirse al  Compromiso la Seguridad Primero.

Cubriré dos temas en esta entrada del blog: nuestro progreso en el lanzamiento de actualizaciones para las vulnerabilidades, así como en hacer frente al problema de reinicio de los sistemas del que hablé la semana pasada, y los datos iniciales del análisis comparativo que estamos haciendo sobre las plataformas del centro de datos.

Actualizaciones de firmware

Ya emitimos actualizaciones de firmware para el 90 por ciento de las CPU (unidades de procesamiento central) de Intel que se introdujeron en los últimos cinco años, pero todavía nos queda trabajo por hacer. Como mencioné la semana pasada, aun cuando las actualizaciones de firmware son efectivas para mitigar la exposición a los problemas de seguridad, los clientes nos han avisado de reinicios más frecuentes en los sistemas actualizados de firmware.

Como parte de lo anterior, determinamos que un comportamiento similar ocurre en otros productos en algunas configuraciones, como en las plataformas basadas en Ivy Bridge, Sandy Bridge, Skylake y Kaby Lake. Hicimos una reproducción de estos inconvenientes de manera interna y estamos avanzando para identificar la causa primaria. Simultáneamente, proporcionaremos un microcódigo beta a los distribuidores para validación la próxima semana.

Para los clientes que desean información adicional, hemos proporcionado más información al respecto en  el sitio del Centro de Seguridad de Intel.com. También continuaremos ofreciendo regularmente información actualizada sobre la situación.

Pruebas del desempeño del centro de datos

El 11 de enero, proporcioné los resultados de datos de rendimiento iniciales de los sistemas para clientes y hoy tengo resultados iniciales para compartir con respecto al centro de datos. Estos resultados se ejecutan en referentes industriales estándar y son útiles, pero entendemos que lo que finalmente les importa a nuestros clientes son sus propias cargas de trabajo. A la fecha, hemos probado plataformas de servidores que se ejecutan en sistemas Intel Xeon Scalable de dos sockets (con el nombre de código Skylake), nuestra microarquitectura de servidor más reciente.

Como se esperaba, los resultados de nuestras pruebas a la fecha muestran un impacto en el desempeño que varía, dependiendo de las cargas de trabajo y configuraciones específicas. En general, las cargas de trabajo que incorporan un mayor número de cambios en el privilegio usuario/núcleo y consumen una cantidad de tiempo importante, tienen un mayor impacto.

Para resumir lo que hemos probado hasta ahora:

  • Impactos que van del 0 al 2% en las referencias de las medidas estándar de la industria de la velocidad de transferencia de datos en números enteros y de punto flotante, Linpack, STREAM, Java de servidor y de la eficiencia energética. Estas referencias representan varias cargas de trabajo importantes para las empresas y los clientes de nubes.
  • Una referencia del proceso de transacciones en línea (OLTP) que simula la interacción entre el cliente, el corredor y la bolsa de valores de una casa comisionista, mostró un impacto del 4%. Se están llevando a cabo más pruebas de analítica y los resultados dependerán de la configuración del sistema y de las pruebas y la referencia que se utilice.

Las referencias para el almacenamiento también mostraron una variedad de resultados que dependen de la referencia, la configuración de la prueba y del sistema:

  • Para FlexibleIO, una referencia que simula tipos diferentes de cargas de entrada/salida (I/O), los resultados dependen de muchos factores, incluyendo la combinación de lectura/escritura, el tamaño del bloque, las unidades y la utilización de la CPU. Cuando llevamos a cabo pruebas para resaltar la CPU (100% caso de escritura), vimos una reducción del 18% en el desempeño de la velocidad de transferencia de datos, porque no había espacio libre de utilización de la CPU. Hemos utilizamos el modelo de lectura/escritura 70/30, vimos un decremento del 2% en el rendimiento de la velocidad de transferencia de datos. Cuando la utilización de la CPU era baja (caso de lectura 100%), como ocurre con el aprovisionamiento de almacenamiento común, vimos un aumento en la utilización de la CPU, pero sin impacto del rendimiento del volumen.
  • Las pruebas del Storage Performance Development Kit (SPDK) (kit de desarrollo de rendimiento de la memoria), que proporcionan una serie de herramientas y bibliotecas para escribir aplicaciones de almacenamiento de alto desempeño, escalables y en modo de usuario, se midieron en varias configuraciones de pruebas. Usando SPDK iSCSI, vimos un impacto hasta del 25% cuando se usaba un solo núcleo. Al utilizar SPDK vHost, no vimos ningún impacto.

En el cuadro siguiente, se resumen más detalles sobre referencias específicas, plataformas y resultados disponibles.

Intel

Intel

En las áreas en las que vemos mayores afectaciones, estamos trabajando arduamente con nuestros socios y clientes para identificar cómo abordarlo. Por ejemplo, existen otras opciones de mitigaciones que podrían producir un impacto menor. Se pueden encontrar más detalles sobre algunas de estas opciones en nuestro reporte técnico  y en la publicación de Google sobre su solución de seguridad “Retpoline”.

 

 

Por Navin Shenoy, vicepresidente ejecutivo y gerente general del Grupo de Centro de Datos de Intel Corporation.

Deja un comentario