Selon un rapport TechInsights, HBM est un appareil DRAM empilé en 3D qui offre une bande passante élevée et des canaux larges, ce qui le rend idéal pour les applications nécessitant des performances élevées, une efficacité énergétique, une grande capacité et une faible latence.Ces applications comprennent l'informatique haute performance (HPC), les GPU haute performance, l'intelligence artificielle et les centres de données.TechInsights prédit que les appareils HBM4 à venir (2025-2026) et les appareils HBM4E (2027-2028) comporteront des capacités de 48 Go à 64 Go, avec des piles de 16 hauteurs et des bande passantes de 1,6 Tb / s ou plus.
La technologie HBM a connu une évolution rapide de la bande passante, passant d'environ 1 Gbit / s dans HBM Gen1 et 2 Gbps dans HBM Gen2 à 3,6 Gbit / s dans HBM2E, 6,4 Gbit / GPour les appareils Gen1 et Gen2 HBM, SK Hynix a utilisé la méthode TC-NCF pour l'empilement de puces DRAM HBM.Pour Gen3 et Gen4, ils sont passés au processus MR-MUF.SK Hynix a encore optimisé ces technologies et développe maintenant un processus MR-MUF avancé pour Gen5 afin d'améliorer la gestion thermique.TechInsights prévoit que les prochains appareils Gen6 HBM4 pourraient combiner ce processus avec des techniques de liaison hybride émergentes.
Pour relever les défis de dissipation thermique, les appareils HBM utilisent des solutions TC-NCF et MR-MUF.La méthode TC-NCF consiste à appliquer un matériau à couches mince après chaque empilement de puces, tandis que la méthode MR-MUF interconnecte toutes les puces empilées verticalement via un seul processus de chauffage et de liaison.Pour les solutions HBM plus élevés, telles que HBM4E, HBM5 et au-delà, TechInsights suggère que de nouvelles approches, comme la liaison hybride, peuvent être nécessaires pour relever efficacement ces défis.