El Portal de las Tecnologías para la Innovación

La nueva memoria ultrarrápida potencia los chips para centros de datos de Intel

Cómo Intel y sus socios de la industria encontraron una forma inteligente de duplicar el ancho de banda de memoria de los módulos DRAM estándar, dando rienda suelta a los chips Xeon de gama alta con una solución plug-and-play.

Si bien el principal foco de atención de los productos de Intel son los procesadores, o cerebros, que hacen que las computadoras funcionen, la memoria del sistema (es decir, la DRAM) es un componente fundamental para el rendimiento. Esto es especialmente cierto en los servidores, donde la multiplicación de los núcleos de procesamiento ha superado el aumento del ancho de banda de la memoria (en otras palabras, el ancho de banda de memoria disponible por núcleo ha disminuido).

En trabajos informáticos pesados, como el modelado meteorológico, la dinámica de fluidos computacional y ciertos tipos de IA, este desajuste podría crear un cuello de botella… hasta ahora.

Después de varios años de desarrollo con socios de la industria, los ingenieros de Intel han encontrado una manera de abrir ese cuello de botella, creando una solución novedosa que ha creado la memoria de sistema más rápida de la historia y que está destinada a convertirse en  un nuevo estándar abierto de la industria . Los procesadores para centros de datos Intel® Xeon® 6 recientemente presentados son los primeros en beneficiarse de esta nueva memoria, llamada MRDIMM, para lograr un mayor rendimiento, de la manera más plug-and-play imaginable.

Bhanu Jaiswal, gerente de productos Xeon en el grupo Data Center and AI (DCAI) de Intel, explica que “un porcentaje significativo de cargas de trabajo informáticas de alto rendimiento están limitadas por el ancho de banda de la memoria”, el tipo que más se beneficiará con los MRDIMM.

Parece demasiado bueno para ser verdad: aquí está la historia detrás del módulo de memoria en línea dual de rango multiplexado DDR5, o MRDIMM para una narración eficiente.

Llevando el paralelismo a la memoria del sistema, con amigos

Resulta que los módulos de memoria más comunes que se utilizan en los centros de datos, conocidos como RDIMM, sí tienen recursos paralelos integrados, como los procesadores modernos, pero no se utilizan de esa manera.

“La mayoría de las DIMM tienen dos niveles de rendimiento y capacidad”, afirma George Vergis, ingeniero principal sénior en búsqueda de rutas de memoria en DCAI. “Es el punto ideal”.

Se puede pensar en los rangos como bancos: un conjunto de chips de memoria en un módulo pertenecería a uno y el resto al otro rango. Con las RDIMM, se puede almacenar y acceder a los datos en varios rangos de forma independiente, pero no simultánea.

Ante esta situación, recuerda Vergis, “pensamos: ‘Un momento. Tenemos recursos paralelos que no se utilizan. ¿Por qué no podemos juntarlos?’”. La idea que perseguía Vergis era colocar un pequeño chip de interfaz –un multiplexor o “mux”– en el módulo DRAM. Esto permite que los datos fluyan a través de ambos niveles de memoria en la misma unidad de tiempo.

El buffer mux consolida la carga eléctrica de cada MRDIMM, lo que permite que la interfaz funcione a una velocidad mayor en comparación con las RDIMM. Y ahora que se puede acceder a ambos rangos de memoria en paralelo, su ancho de banda se ha duplicado.

El resultado es la memoria de sistema más rápida jamás creada, un salto que normalmente llevaría varias generaciones de tecnologías de memoria para lograrse (en este caso, el ancho de banda máximo aumenta casi un 40%, de 6.400 megatransferencias por segundo (MT/s) a 8.800 MT/s).

El mismo módulo de memoria estándar, pero más rápido

En este punto, es posible que usted se pregunte: “¿Está Intel volviendo al negocio de la memoria?” No. Aunque Intel comenzó como una empresa de memoria e inventó tecnologías como EPROM y DRAM, la empresa ha abandonado varios de sus negocios de productos de memoria a lo largo de su historia (algunos de ellos de forma bastante famosa).

Pero Intel nunca detuvo sus esfuerzos para que los distintos componentes informáticos sean interoperables y tengan un mayor rendimiento. Vergis representa a Intel en la junta directiva de JEDEC, que establece estándares abiertos para la industria de la microelectrónica, en particular para la memoria.  Vergis ganó un premio JEDEC en 2018  por su trabajo en el estándar DDR5, y ahora mismo está dedicando tiempo al DDR6. (JEDEC también  honró este año al CEO de Intel, Pat Gelsinger,  por su trayectoria como «un firme defensor de los estándares abiertos, como lo demuestra el liderazgo histórico de Intel en el desarrollo de estándares»).

Vergis y sus compañeros comenzaron este trabajo en 2018 y probaron el concepto con prototipos en 2021. Intel se asoció con el ecosistema de memoria para construir  los primeros componentes y donó las especificaciones a JEDEC como un nuevo estándar abierto a fines de 2022.

Lo que destaca del MRDIMM es su facilidad de uso. Utiliza el mismo conector y factor de forma que un RDIMM normal (incluso los pequeños chips multiplexores caben en los espacios que antes estaban vacíos del módulo), por lo que no requiere cambios en la placa base.

Las MRDIMM también incorporan las mismas funciones de corrección de errores y confiabilidad, disponibilidad y capacidad de servicio (RAS) que las RDIMM. La integridad de los datos se mantiene sin importar cómo se multiplexen las solicitudes separadas en el búfer de datos, explica Vergis.

Todo esto significa que los clientes de los centros de datos pueden elegir MRDIMM cuando piden un nuevo servidor o, más adelante, pueden sacar ese servidor del rack y cambiar los RDIMM por nuevos MRDIMM. No es necesario cambiar ni una sola línea de código para disfrutar del nuevo rendimiento.

Xeon 6 + MRDIMM = 🚀🚀

Lo que se necesita es una CPU que pueda trabajar con MRDIMM, y el primero disponible es el procesador Intel Xeon 6 con núcleos Performance, cuyo nombre en código es Granite Rapids, que llegó al mercado este año.

Pruebas independientes recientes  compararon  dos sistemas Xeon 6 idénticos, uno con MRDIMM y el otro con RDIMM. El sistema con MRDIMM completó las tareas hasta un 33 % más rápido.

Jaiswal dice que la “mejora en el ancho de banda que ofrece MRDIMM es muy aplicable a modelos de lenguaje pequeños y tipos de cargas de trabajo de IA de sistemas de recomendación y aprendizaje profundo tradicionales que pueden ejecutarse fácilmente en Xeon y lograr un buen aumento de rendimiento con MRDIMM”.

Los principales proveedores de memoria han introducido las MRDIMM y se espera que otros fabricantes de memoria lancen más. Los laboratorios de computación de alto rendimiento, como el Instituto Nacional de Ciencia y Tecnología Cuántica y el Instituto Nacional de Ciencia de Fusión, entre otros, están adoptando activamente Xeon 6 con núcleos P gracias a las MRDIMM, con el apoyo de fabricantes de equipos originales como NEC.

“Intel definitivamente lleva la delantera”, señala Jaiswal, “respaldada por un sólido ecosistema de OEM y proveedores de memoria”. Intel News. Traducido al español

Artículos relacionados

Scroll al inicio