HomeNoticias GeneralesITNovedades sobre la plataforma de centro de datos de Intel, Sapphire Rapids

Novedades sobre la plataforma de centro de datos de Intel, Sapphire Rapids

Comunicado de prensa

Las mejoras de la plataforma y los motores de aceleración integrados abordarán las cargas de trabajo más exigentes desde la nube hasta el Edge.

Por Lisa Spelman, Vicepresidente Corporativo, Gerente General de Xeon and Memory Group

Pasaron varios meses desde que lanzamos nuestros procesadores escalables Intel® Xeon® de tercera generación y me parece un buen momento para compartir una actualización de nuestra próxima generación de procesadores escalables Intel® Xeon®, bajo el nombre en código “Sapphire Rapids”, en el cual estamos trabajando intensamente. Hemos hablado ampliamente sobre lo que sucederá en esta plataforma, hoy quiero destacar dos de las tecnologías innovadoras presentadas en Sapphire Rapids y ofrecer una actualización sobre lo que se avecina. Sapphire Rapids contará con una nueva microarquitectura diseñada para abordar las cargas de trabajo dinámicas y cada vez más exigentes en los futuros centros de datos a través de la computación, las redes y el almacenamiento. El procesador está respaldado por un amplio conjunto de mejoras de plataforma que impulsarán la adopción de tecnologías que cambiarán el sector, como la memoria DDR5 y PCIe 5.0.

Sapphire Rapids está diseñado para ser el procesador de centro de datos de mayor rendimiento de Intel, que ofrece baja latencia y gran ancho de banda de memoria en todas las cargas de trabajo. Como lo anunciamos esta semana en el marco de la Conferencia Internacional de Supercomputación, se ofrecerán versiones de Sapphire Rapids con memoria de alto ancho de banda (HBM) integrada, lo que proporcionará una mejora espectacular del rendimiento para las aplicaciones sensibles al ancho de banda de la memoria.

Me siento muy emocionada de compartir más información sobre dos nuevos motores de aceleración avanzados que estamos incorporando a Sapphire Rapids.

Ya he hablado ampliamente sobre la posición de liderazgo que tenemos en el área de inteligencia artificial dentro de Xeon. Con Sapphire Rapids, redoblamos esta posición de liderazgo a través de la integración de Intel Advanced Matrix Extensions (AMX). Con AMX, avanzamos a partir de nuestra extensa trayectoria de extender la arquitectura x86 a través de un mayor ancho de registro y tecnologías como MMX, SSE y AVX.AMX amplía la arquitectura al agregar, por primera vez, registros bidimensionales llamados mosaicos y nuevas instrucciones que operan en esos mosaicos.

Estas nuevas instrucciones mejoran significativamente el rendimiento de las operaciones de multiplicación matricial, que prevalecen en las cargas de trabajo de aprendizaje profundo. He visto esta tecnología de primera mano en nuestros laboratorios y espero que nuestros clientes pronto la tengan en sus manos. No quiero revelar todo ahora, pero puedo decirles que en las primeras versiones del silicio obtenemos fácilmente más de 2X de la inferencia de aprendizaje profundo y el rendimiento de entrenamiento en comparación con nuestra generación actual de Xeon Scalable.

El otro importante motor de aceleración que estamos construyendo en Sapphire Rapids es el Intel® Data Streaming Accelerator (Intel®DSA). Fue desarrollado de forma práctica con nuestros socios y clientes que buscan constantemente formas de liberar núcleos de procesador para lograr un mayor rendimiento general. DSA es un motor de alto desempeño destinado a optimizar el movimiento de datos de transmisión y las operaciones de transformación comunes en aplicaciones de procesamiento de datos, redes y almacenamiento de alto rendimiento trabajamos activamente para crear un ecosistema en torno a esta nueva función para que los clientes puedan aprovecharla fácilmente. He visto el DSA en acción y estoy segura de que cambiará las reglas del juego en la transmisión de datos.

La demanda de Sapphire Rapids continúa en crecimiento a medida que los clientes aprenden más sobre los beneficios de la plataforma. Dada la amplitud de las mejoras en Sapphire Rapids, incorporamos un tiempo de validación adicional antes del lanzamiento de producción, lo que agilizará el proceso de implementación para nuestros clientes y socios. Con base en esto, esperamos que Sapphire Rapids esté en producción en el primer trimestre de 2022, con una rampa de volumen a partir del segundo trimestre de 2022.

Sapphire Rapids es un lanzamiento emocionante para nosotros y para la industria. Los avances en el desempeño, la aceleración de la carga de trabajo, el ancho de banda de la memoria y la gestión de la infraestructura conducirán la transición de la industria a arquitecturas basadas en la nube y ayudarán a diseñar los centros de datos del futuro. Esperamos compartir más información técnica sobre nuestra plataforma de centro de datos de próxima generación en los próximos meses, incluso durante Hot Chips 2021 en agosto e Intel Innovation en octubre… quizás con un adelanto de la nueva arquitectura incluso antes.

Lisa Spelman es vicepresidenta corporativa y gerente general de Xeon and Memory Group en Intel Corporation.

Alejandro Dau
Con gran experiencia en el ámbito tecnológico, Licenciado en Informática y amante de los deportes, ocupa la posición de Editor en jefe con una sola idea: brindar a los lectores las mejores noticias y reviews de habla hispana.

Comentarios