SK Hynix để giới thiệu HBM3E 16 lớp, SSD doanh nghiệp 122TB, LPCAMM2, và nhiều hơn nữa tại CES
Nhà sản xuất bộ nhớ hàng đầu Hàn Quốc SK Hynix đã công bố sẽ giới thiệu các giải pháp bộ nhớ tiên tiến cho ứng dụng trí tuệ nhân tạo tại Triển lãm Điện tử Tiêu dùng CES năm nay ở Las Vegas. Công ty sẽ trình diễn mẫu sản phẩm HBM3E 16 lớp mới nhất, dựa trên công nghệ bộ nhớ băng thông cao 12 lớp, được công bố chính thức vào tháng 11 năm 2024.
Sự cải tiến này sử dụng quy trình MR-MUF tiên tiến để nâng cao hiệu suất nhiệt và giảm cong vênh chip, đạt được kết quả hàng đầu trong ngành. Với dung lượng 48GB và 3GB cho mỗi die trong mỗi chồng, mật độ tăng lên cho phép các bộ tăng tốc AI sử dụng tới 384GB bộ nhớ HBM3E trong cấu hình 8 chồng. HBM3E 16 lớp được thiết kế để tăng cường khả năng học AI lên tới 18 lần và hiệu suất suy diễn lên tới 32 lần so với phiên bản 12 lớp.
Chip Rubin thế hệ tiếp theo của Nvidia dự kiến sẽ được sản xuất hàng loạt vào năm tới, vì vậy HBM3E có thể sẽ không tồn tại lâu, do các chip mới của Nvidia sẽ sử dụng HBM4. Tuy nhiên, điều này không đáng lo ngại, vì báo cáo cho biết SK Hynix đã hoàn thành giai đoạn tape-out vào tháng 10 năm 2024. Để đáp ứng nhu cầu ngày càng tăng về lưu trữ dung lượng lớn trong các trung tâm dữ liệu AI, SK Hynix cũng sẽ giới thiệu các giải pháp SSD mới cho người dùng doanh nghiệp, bao gồm SSD D5-P5336 122TB do công ty con Solidigm phát triển.
Mô hình này được cho là có dung lượng cao nhất trong phân khúc và sẽ thiết lập tiêu chuẩn mới trong giải pháp lưu trữ dữ liệu. Nhà sản xuất bộ nhớ và lưu trữ cũng sẽ trình bày về công nghệ Compute Express Link (CXL) và Processing-In-Memory (PIM), được xem là quan trọng cho thế hệ hạ tầng trung tâm dữ liệu tiếp theo. Các giải pháp mô-đun như CMM-Ax và AiMX sẽ được giới thiệu, trong đó CMM-Ax được ca ngợi là giải pháp đột phá kết hợp khả năng mở rộng của CXL với khả năng tính toán, nâng cao hiệu suất và hiệu quả năng lượng cho các nền tảng máy chủ thế hệ mới.
Với xu hướng AI trên thiết bị ngày càng phổ biến, SK hynix dự kiến sẽ giới thiệu LPCAMM2 và ZUFS4.0, nhằm nâng cao tốc độ xử lý dữ liệu và hiệu suất năng lượng cho các thiết bị như PC và smartphone. Những đổi mới này hướng đến việc tích hợp khả năng AI trực tiếp vào điện tử tiêu dùng, mở rộng ứng dụng AI. Công ty cũng đã thông báo về việc phát triển nhiều sản phẩm khác, bao gồm PCIe 6.
SK hynix phát triển SSD QLC dung lượng cao dành riêng cho máy chủ AI, UFS 5.0 cho thiết bị di động, cùng với module LPCAMM2 và bộ nhớ LPDDR56 hàn sử dụng công nghệ 1cnm để cung cấp năng lượng cho laptop và máy chơi game cầm tay.
Nguồn: www.tomshardware.com/pc-components/dram/sk-hynix-to-showcase-16-layer-hbm3e-122tb-enterprise-ssd-lpcamm23-and-more-at-ces