Memoria de alto ancho de banda

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
Corte a través de una tarjeta gráfica que utiliza memoria de gran ancho de banda

La memoria de alto ancho de banda o HBM (del inglés high bandwidth memory) es una interfaz RAM de alto rendimiento para DRAM apiladas en 3D de Samsung, AMD[1]​ y SK Hynix. Se utilizan junto con aceleradores de gráficos de alto rendimiento y dispositivos de red.[2]

Los primeros dispositivos que utilizan HBM son las GPU de la serie Radeon RX 300 de AMD. La memoria de alto ancho de banda ha sido adoptada por JEDEC como un estándar de la industria en octubre de 2013.[3]​ La segunda generación, HBM2, fue aceptada por JEDEC en enero de 2016.[4]

Tecnología[editar]

HBM logra un mayor ancho de banda mientras usa menos energía en un factor de forma sustancialmente más pequeño que DDR4 o GDDR5.[5]​ Esto se logra apilando hasta ocho matrices DRAM (por lo tanto, es un circuito integrado tridimensional), incluida una matriz base opcional (a menudo un intermediador de silicio[6][7]​) con un controlador de memoria, que están interconectados por vías a través de silicio (TSV) y microbolas de soldadura. La tecnología HBM es similar en principio pero incompatible con la interfaz Hybrid Memory Cube desarrollada por Micron Technology.[8]

El bus de memoria HBM es muy amplio en comparación con otras memorias DRAM como DDR4 o GDDR5. Una pila HBM de cuatro matrices DRAM (4-Hi o 'cuatro alturas') tiene dos canales de 128 bits por matriz para un total de 8 canales y un ancho de 1024 bits en total. Una tarjeta gráfica con HBM de cuatro alturas tendría un bus de memoria con un bus de 4096 bits. Por comparación, el bus de las memorias GDDR es de 32 bits por chip, con 16 canales para una tarjeta gráfica con un bus de memoria de 512 bits. [9]​ HBM admite hasta 4 GB por encapsulado.

La mayor cantidad de conexiones a la memoria, en relación con DDR4 o GDDR5, requirió un nuevo método para conectar la memoria HBM a la GPU (u otro procesador). AMD y Nvidia han utilizado chips de silicio especialmente diseñados, llamados intermediadores, para conectar la memoria y la GPU. Este intermediador tiene la ventaja adicional de requerir que la memoria y el procesador estén físicamente cerca, disminuyendo las rutas de memoria. Sin embargo, dado que la fabricación de dispositivos semiconductores es significativamente más cara que la fabricación de placas de circuito impreso, esto añade costes al producto final.

Interfaz[editar]

La DRAM de HBM está estrechamente acoplada a la matriz de cálculo del host con una interfaz distribuida. La interfaz está dividida en canales independientes. Los canales son completamente independientes entre sí y no necesariamente sincronizados entre sí. HBM DRAM utiliza una arquitectura de interfaz amplia para lograr un funcionamiento de alta velocidad y bajo consumo de energía. La DRAM de HBM utiliza un reloj diferencial de 500 MHz CK_t / CK_c (donde el sufijo "_t" indica el componente "verdadero" o "positivo" del par diferencial, y "_c" representa el "complementario"). Los comandos se registran en el flanco ascendente de CK_t, CK_c. Cada interfaz de canal mantiene un bus de datos de 128 bits que funciona a doble velocidad de datos (DDR). HBM admite velocidades de transferencia de 1 GT / s por pin (transfiriendo 1 bit), lo que genera un ancho de banda de paquete total de 128 GB/s.[10]

HBM2[editar]

La segunda generación de memoria de gran ancho de banda, HBM2, también especifica hasta ocho matrices por pila y duplica la tasa de transferencia por pin de hasta 2 GT/s. Con un bus de 1024 bits, HBM2 puede alcanzar un ancho de banda de memoria de 256 GB/s por encapsulado. La especificación HBM2 permite hasta 8 GB por encapsulado. Se prevé que HBM2 sea especialmente útil para aplicaciones de consumo sensibles al rendimiento, como la realidad virtual.[11]

El 19 de enero de 2016, Samsung anunció la producción en masa temprana de HBM2, con hasta 8 GB por pila[12]​.[13]​ SK Hynix también anunció la disponibilidad de pilas de 4 GB en agosto de 2016.[14]

HBM2E[editar]

A finales de 2018, JEDEC anunció una actualización de la especificación HBM2, que prevé un mayor ancho de banda y capacidades.[15]​ La especificación oficial ahora admite hasta 307 GB / s por pila (velocidad de datos efectiva de 2,5 Tbit / s), aunque los productos que funcionan a esta velocidad ya estaban disponibles. Además, la actualización agregó soporte para pilas de 12-Hi (12 dados), lo que hace posible capacidades de hasta 24 GB por pila.

El 20 de marzo de 2019, Samsung anunció su Flashbolt HBM2E, con ocho matrices por pila, una tasa de transferencia de 3,2 GT/s, que proporciona un total de 16 GB y 410 GB/s por pila.[16]

El 12 de agosto de 2019, SK Hynix anunció su HBM2E, con ocho matrices por pila, una tasa de transferencia de 3,6 GT / s, que proporciona un total de 16 GB y 460 GB/s por pila.[17][18]​ El 2 de julio de 2020, SK Hynix anunció que había comenzado la producción en masa.[19]

HBMnext[editar]

A fines de 2020, Micron reveló que el estándar HBM2E se actualizaría y, junto con eso, dieron a conocer el próximo estándar conocido como HBMnext. Originalmente propuesto como HBM3, este es un gran salto generacional de HBM2 y el reemplazo de HBM2E. Esta nueva VRAM llegará al mercado en el cuarto trimestre de 2022. Esto probablemente introducirá una nueva arquitectura como sugiere el nombre.

Si bien es posible que se revise la arquitectura, las filtraciones apuntan a que el rendimiento será similar al del estándar HBM2E actualizado. Es probable que esta RAM se utilice principalmente en GPU de centros de datos.[20][21][22][23]

HBM-PIM[editar]

En febrero de 2021, Samsung anunció el desarrollo de HBM con procesamiento en memoria (o PIM, por su sigla en inglés). Esta nueva memoria trae capacidades de computación orientada a inteligencia artificial dentro de la memoria para aumentar el procesamiento de datos a gran escala. Un motor de inteligencia artificial optimizado para DRAM se coloca dentro de cada banco de memoria para permitir el procesamiento paralelo y minimizar el movimiento de datos. Samsung afirma que esto ofrecerá el doble de rendimiento del sistema y reducirá el consumo de energía en más del 70 % sin requerir ningún cambio de hardware o software en el resto del sistema. [24]

Referencias[editar]

  1. «Memoria de alto ancho de banda | AMD». www.amd.com. Consultado el 9 de diciembre de 2018. 
  2. «Wayback Machine». web.archive.org. 2014. Archivado desde el original el 6 de febrero de 2015. Consultado el 10 de diciembre de 2018. 
  3. «Standards & Documents Search | JEDEC». www.jedec.org. Consultado el 10 de diciembre de 2018. 
  4. Emily Desjardins (12 de enero de 2016). «JEDEC Updates Groundbreaking High Bandwidth Memory (HBM) Standard» (en inglés). Arlington, Virginia. Consultado el 10 de diciembre de 2018. 
  5. HBM: Memory Solution for Bandwidth-Hungry Processors Archivado el 24 de abril de 2015 en Wayback Machine., Joonyoung Kim and Younsu Kim, SK Hynix // Hot Chips 26, August 2014
  6. https://semiengineering.com/whats-next-for-high-bandwidth-memory/
  7. https://semiengineering.com/knowledge_centers/packaging/advanced-packaging/2-5d-ic/interposers/
  8. Where Are DRAM Interfaces Headed? Archivado el 15 de junio de 2018 en Wayback Machine. // EETimes, 4/18/2014 "The Hybrid Memory Cube (HMC) and a competing technology called High-Bandwidth Memory (HBM) are aimed at computing and networking applications. These approaches stack multiple DRAM chips atop a logic chip."
  9. Highlights of the HighBandwidth Memory (HBM) Standard. Mike O’Connor, Sr. Research Scientist, NVidia // The Memory Forum – June 14, 2014
  10. «High-Bandwidth Memory (HBM)». AMD. 1 de enero de 2015. Consultado el 10 de agosto de 2016. 
  11. Valich, Theo (16 de noviembre de 2015). «NVIDIA Unveils Pascal GPU: 16GB of memory, 1TB/s Bandwidth». VR World. Consultado el 24 de enero de 2016. 
  12. «Samsung Begins Mass Producing World's Fastest DRAM – Based on Newest High Bandwidth Memory (HBM) Interface». news.samsung.com. 
  13. «Samsung announces mass production of next-generation HBM2 memory – ExtremeTech». 19 de enero de 2016. 
  14. Shilov, Anton (1 de agosto de 2016). «SK Hynix Adds HBM2 to Catalog». Anandtech. Consultado el 1 de agosto de 2016. 
  15. «JEDEC Updates Groundbreaking High Bandwidth Memory (HBM) Standard». JEDEC. 17 de diciembre de 2018. Consultado el 18 de diciembre de 2018. 
  16. «Samsung Electronics Introduces New High Bandwidth Memory Technology Tailored to Data Centers, Graphic Applications, and AI | Samsung Semiconductor Global Website». www.samsung.com (en inglés). Consultado el 22 de agosto de 2019. 
  17. «SK Hynix Develops World's Fastest High Bandwidth Memory, HBM2E». www.skhynix.com. 12 de agosto de 2019. Archivado desde el original el 3 de diciembre de 2019. Consultado el 22 de agosto de 2019. 
  18. «SK Hynix Announces its HBM2E Memory Products, 460 GB/S and 16GB per Stack». 
  19. «SK hynix Starts Mass-Production of High-Speed DRAM, ”HBM2E”». 2 de julio de 2020. 
  20. https://videocardz.com/newz/micron-reveals-hbmnext-successor-to-hbm2e
  21. https://amp.hothardware.com/news/micron-announces-hbmnext-as-eventual-replacement-for-hbm2e
  22. https://www.extremetech.com/computing/313829-micron-introduces-hbmnext-gddr6x-confirms-rtx-3090
  23. https://www.tweaktown.com/news/74503/micron-unveils-hbmnext-the-successor-to-hbm2e-for-next-gen-gpus/amp.html
  24. https://news.samsung.com/global/samsung-develops-industrys-first-high-bandwidth-memory-with-ai-processing-power

Enlaces externos[editar]