Micron và SK Hynix tiết lộ bộ nhớ xã hội LPDDR5X mới lên tới 128GB, ra mắt trên các hệ thống NVIDIA GB300
Micron, Samsung và SK hynix đã ra mắt mô-đun bộ nhớ SOCAMM nhỏ gọn, sử dụng bộ nhớ LPDDR5X, hướng đến máy chủ AI và tiết kiệm năng lượng. SOCAMM sẽ được áp dụng đầu tiên cho các máy chủ dựa trên hệ thống siêu chip Nvidia GB300 Grace Blackwell. SOCAMM có kích thước 14x90mm, chỉ bằng một phần ba kích thước của RDIMM truyền thống, và có thể chứa tối đa bốn cụm bộ nhớ LPDDR5X với 16 die.
Các mô-đun SOCAMM ban đầu của Micron sẽ có dung lượng 128GB và sử dụng bộ nhớ LPDDR5X được sản xuất trên công nghệ DRAM 10nm thế hệ 5. Micron không công bố tốc độ truyền dữ liệu của các thanh SOCAMM ban đầu nhưng cho biết bộ nhớ của chúng có thể đạt tối đa 9.6 GTs. Trong khi đó, SOCAMM của SK hynix được trình diễn tại GTC 2025 có tốc độ tối đa là 7 GTs.
Bộ nhớ tiêu tốn một phần lớn năng lượng của máy chủ. Chẳng hạn, điện năng tiêu thụ của DRAM trong máy chủ sử dụng nhiều terabyte bộ nhớ DDR5 mỗi khe cắm vượt qua cả CPU. Nvidia thiết kế CPU Grace của mình dựa trên bộ nhớ LPDDR5X, tiêu thụ ít năng lượng hơn DDR5, nhưng đã áp dụng bus bộ nhớ rộng giống như các bộ xử lý của AMD và Intel để cung cấp băng thông bộ nhớ cao.
Tuy nhiên, với các máy dựa trên GB200 Grace Blackwell, Nvidia phải sử dụng bộ nhớ LPDDR5X hàn chết do không có mô-đun LPDDR5X tiêu chuẩn nào đáp ứng đủ yêu cầu về dung lượng. Micron đã thay đổi điều này bằng cách cung cấp giải pháp mô-đun tiêu chuẩn có thể chứa bốn cụm bộ nhớ LPDDR5X 16-die, mang lại dung lượng lớn. Micron cho biết SOCAMM 128GB của họ tiêu thụ chỉ một phần ba điện năng so với một RDIMM DDR5 128GB, điều này rất quan trọng.
Hiện chưa rõ liệu SOCAMM của Micron có trở thành tiêu chuẩn ngành do JEDEC hỗ trợ hay chỉ là giải pháp độc quyền của Micron, Samsung, SK hynix và Nvidia cho các máy chủ chạy CPU Grace và Vera. SOCAMM của Micron đã được sản xuất hàng loạt, vì vậy các hệ thống dựa trên siêu chip GB300 Grace Blackwell Ultra của Nvidia sẽ sử dụng loại bộ nhớ này.
Bộ nhớ mô-đun đơn giản hóa quy trình sản xuất và bảo trì máy chủ, góp phần làm giảm giá thành thiết bị. AI đang thúc đẩy một sự chuyển mình trong lĩnh vực máy tính, và bộ nhớ đóng vai trò quan trọng trong sự phát triển này, theo Raj Narasimhan, phó chủ tịch cao cấp và giám đốc điều hành của Micron. Những đóng góp của Micron cho nền tảng Nvidia Grace Blackwell mang lại hiệu suất cao và tiết kiệm năng lượng cho các ứng dụng đào tạo và suy diễn AI.
Giải pháp bộ nhớ HBM và LPDDR giúp nâng cao khả năng tính toán cho GPU.
Nguồn: www.tomshardware.com/pc-components/ram/micron-and-sk-hynix-unveil-lpddr5x-socamm-up-to-128gb-for-ai-servers