HBM4 está preparada para dotar de GB de memoria a muchas GPUs dedicadas para IA, así lo ha confirmado JEDEC.
Dentro de los centros de datos, no solo hay procesadores Xeon o EPYC, sino tarjetas gráficas de AMD o NVIDIA que están equipadas con esta tecnología. La memoria HBM se caracteriza por tener un ancho de banda gigante gracias al apilamiento de memoria vertical, entre otras cosas. Así, brinda más de 40 GB de memoria VRAM y un ancho de banda que supera 1 TB/s.
JEDEC informa de que la memoria HBM4 está casi lista
JEDEC es la organización sin ánimo de lucro de estandarización en memoria por excelencia. Ya han avisado que vamos a ver más ancho de banda, más capacidad de memoria y unos niveles de eficiencia superiores.
Ahora mismo, en el mercado está presente HBM3, pero el upgrade de HBM4 está más que argumentado. De entrada, pasamos a capas de 24 y 32 GB que soportan hasta 16 TSV o interposers apilados. Estamos hablando de hasta 64 GB en cada módulo, y los profesionales de la IA están frotándose las manos porque entrenar modelos LLM supone devorar VRAM.
Solo vemos HBM en la industria de aceleradores de alta gama para inteligencia artificial. Véase la gama AMD Instinct o las famosas H100 de NVIDIA, que pronto serán reemplazadas por las «B» con arquitectura Blackwell.
Sin ánimo de entrar en un debate ridículo de GDDR o HBM, está más que probado que GDDR sigue siendo la mejor solución para gaming por su relación calidad-precio. Dicho sea, los módulos GDDR7 debutarán en solo unos meses, y es muy posible que veamos una RTX 5090 equipada con ellos.
Por el momento, no han informado de cuándo será declarada estándar la memoria HBM4, ¿llegaremos a los 100 GB en una GPU en pocos años? Yo apuesto a que sí.
Fuente: JEDEC