Kiến trúc HBM thế hệ tiếp theo chi tiết bao gồm HBM4, HBM5, HBM6, HBM7 & HBM8: Tối đa 64 tb/s băng thông, công suất 240 GB mỗi ngăn xếp 24 giờ, làm mát nhúng
Các tiêu chuẩn HBM thế hệ tiếp theo, bao gồm HBM4, HBM5, HBM6, HBM7 và HBM8, đã được công bố, mang lại những cải tiến lớn cho nhu cầu AI trong trung tâm dữ liệu ngày càng tăng. HBM dự kiến sẽ tăng trưởng mạnh mẽ trong thập kỷ tới khi nhu cầu về trung tâm dữ liệu AI gia tăng, với HBM4, HBM5, HBM6, HBM7 và HBM8 có khả năng lên tới 64 TB trong các cấu trúc 24 lớp đang trong giai đoạn nghiên cứu. Trong một buổi thuyết trình gần đây của Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc (KAIST) và Phòng thí nghiệm Kết nối và Đóng gói Terabyte, các công ty đã phác thảo lộ trình HBM và những gì có thể mong đợi từ các tiêu chuẩn thế hệ tiếp theo.
Báo cáo nêu ra nhiều tiêu chuẩn HBM mới và sắp ra mắt, bao gồm HBM4, HBM5, HBM6, HBM7 và HBM8, với nhiều thông tin cần khám phá. Bắt đầu với HBM4, đây sẽ là tiêu chuẩn chính cho các trung tâm dữ liệu thế hệ mới và GPU AI ra mắt vào năm 2026. Cả AMD và NVIDIA đều đã xác nhận sử dụng HBM cho sản phẩm MI400 và Rubin của họ. Ngoài ra, nguồn nghiên cứu cũng cung cấp cái nhìn về lộ trình của NVIDIA, điều này có thể quan trọng vì TeraByte chịu trách nhiệm về các phương pháp đóng gói kết nối cho bộ nhớ HBM.
HBM4 cho GPU Rubin của NVIDIA và MI500 của AMD. NVIDIA giới thiệu Rubin với 8 vị trí HBM4 và Rubin Ultra với 16 vị trí HBM4. Mỗi biến thể có hai mặt cắt GPU, nhưng Rubin Ultra có mặt cắt lớn hơn, gấp đôi mật độ tính toán so với Rubin tiêu chuẩn.
Theo công ty nghiên cứu, GPU Rubin có kích thước die là 728 mm2 và tiêu thụ 800W mỗi die. Điều này chỉ áp dụng cho phiên bản tiêu chuẩn của Rubin. Interposer có kích thước 2194 mm2 (46.2mm x 48.5mm) và hỗ trợ dung lượng VRAM từ 288 đến 384 GB với băng thông tổng từ 16-32 TB. Tổng công suất chip được công bố là 2200W, gần gấp đôi so với GPU Blackwell B200. Các đặc điểm chính của chuẩn bộ nhớ HBM4 bao gồm: Tốc độ dữ liệu 8 Gbps, số lượng IOs 2048-4096, và băng thông tổng.
Đây là thông tin được tóm tắt ngắn gọn:
- Dung lượng mỗi die: 24 Gb
- Dung lượng mỗi HBM: 3648 GB
- Phương pháp đóng gói: Microbump MR-MUF
- Phương pháp làm mát: Làm mát trực tiếp vào chip (D2C) bằng chất lỏng
- Kiến trúc die cơ bản HBM tùy chỉnh: NMC
- Bộ xử lý LPDDR trong die cơ bản: NVIDIA Rubin Instinct MI400
Đặc biệt, AMD Instinct MI400 sẽ ra mắt vào năm sau, với dung lượng HBM4 lên tới 432 GB và băng thông bộ nhớ đạt đến 19.
HBM4 có tốc độ dữ liệu 8 Gbps, băng thông bộ nhớ 2,0 TB/s mỗi stack, dung lượng 24 Gb mỗi die, cho tổng dung lượng lên tới 36-48 GB. Công suất mỗi stack là 75W, sử dụng làm mát trực tiếp bằng chất lỏng D2C và die HBM-LPDDR tùy chỉnh. HBM4e có tốc độ dữ liệu nâng cao lên 10 Gbps.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
HBM5 cung cấp băng thông 5 TB mỗi stack, với dung lượng lên tới 32 Gb mỗi die, cho tổng dung lượng bộ nhớ lên tới 4864 GB dựa trên các stack 12-Hi và 16-Hi, và công suất tối đa 80W cho mỗi gói HBM. HBM5 nhắm đến NVIDIA Feynman với kế hoạch phát hành vào năm 2029. Phiên bản Non-e của HBM5 giữ tốc độ dữ liệu 8 Gbps, nhưng tăng số lượng IO lanes lên 4096 bit, đồng thời tăng băng thông lên 4 TB mỗi stack với các stack 16-Hi là tiêu chuẩn.
HBM5 với 40 Gb DRAM sẽ đạt dung lượng 80 GB mỗi stack, tiêu thụ điện năng khoảng 100W. Các đặc điểm chính của tiêu chuẩn bộ nhớ HBM5 bao gồm: Tốc độ dữ liệu 8 Gbps, số lượng IO 4096, băng thông tổng 4.0 TB/s, số lượng die stack 16-Hi, dung lượng mỗi die 40 Gb, dung lượng mỗi HBM 80 GB, công suất mỗi HBM 100W, phương pháp đóng gói Microbump MR-MUF, phương pháp làm mát bằng ngâm, TTV, và liên kết nhiệt. Chip die stack tụ phân tách chuyên dụng và die nền HBM tùy chỉnh với bộ nhớ cache 3D NMC-HBM. NVIDIA Feynman Instinct MI500 là nền tảng đầu tiên dự kiến sử dụng tiêu chuẩn bộ nhớ HBM5, với lịch phát hành dự kiến vào năm 2028, nhưng có khả năng sẽ ra mắt thực tế vào năm 2029.
Số liệu Feynman được nhấn mạnh, với GPU có kích thước 750 mm2 và công suất 900W cho mỗi die, chip cao cấp sẽ được gọi là F400. NVIDIA chưa công bố hình ảnh cụ thể của chip, nhưng công ty nghiên cứu tin rằng đây là gói bốn die GPU với 8 vị trí HBM5. Gói này có kích thước 4788 mm2 (85.22mm x 56.2mm) và toàn bộ GPU dự kiến có dung lượng HBM5 từ 400-500 GB, với TDP là 4400W.
HBM6 cho kiến trúc GPU sau Feynman - Công suất lớn, khả năng lớn, băng thông rộng. NVIDIA có thể sẽ ra mắt phiên bản Feynman Ultra, nhưng hiện tại chỉ có thiết kế sau Feynman với HBM6. HBM6 dự kiến sẽ gấp đôi tốc độ dữ liệu lên 16 Gbps với 4096-bit IO lanes. Các tính năng chính của tiêu chuẩn bộ nhớ HBM6 bao gồm: Tốc độ dữ liệu 16 Gbps, Số lượng IO 4096, Băng thông tổng 8.
- Dung lượng mỗi die: 48 Gb
- Dung lượng mỗi HBM: 96-120 GB
- Phương pháp đóng gói: Liên kết đồng Cu-Cu không có bump
- Phương pháp làm mát: Làm mát ngâm
- Interposer Silicon-Glass ActiveHybrid
Băng thông tăng gấp đôi lên 8 TB/s, với dung lượng 48 Gb cho mỗi die DRAM. Một thay đổi lớn so với HBM5 là HBM stacking sẽ vượt quá 16-Hi lên 20-Hi, nâng cao dung lượng bộ nhớ lên 96-120 GB mỗi chồng.
Nguồn: wccftech.com/next-gen-hbm-architecture-detailed-hbm4-hbm5-hbm6-hbm7-hbm8-up-to-64-tbps-bandwidth-240-gb-capacity-per-24-hi-stack-embedded-cooling/