SK Hynix đang làm việc hướng tới sự phát triển của các giải pháp bộ nhớ CXL 2.0 dựa trên DDR5 cho phân đoạn AI, đặc biệt là LLM "đói bộ nhớ".
Kết nối CXL 2.0 là cách để thực hiện các khả năng xử lý bộ nhớ thế hệ tiếp theo, SK Hynix & Samsung vội vã giới thiệu các giải pháp
CXL đề cập đến việc tính toán liên kết Express, đây là một công nghệ kết nối cho phép truyền dữ liệu nhanh hơn giữa CPU và GPU, nhưng trong trường hợp AI, nó thực sự là giữa CPU và máy gia tốc.
CXL có lợi từ các giao diện PCIE thông thường vì nó cho phép GPU truy cập trực tiếp vào bộ nhớ hệ thống, tăng cường hiệu suất đáng kể.Giao thức CXL gần đây đã thấy sự quan tâm lớn từ các thị trường, vì các kỹ thuật bộ nhớ hiện đại không thể thực hiện được sức mạnh theo yêu cầu của các mô hình AI quy mô lớn.Để chống lại điều này, SK Hynix và các công ty khác đang làm việc để áp dụng các giải pháp bộ nhớ dựa trên CXL.
Phó chủ tịch kiến trúc hệ thống của SK Hynix đã thảo luận về khả năng phát triển các mô-đun bộ nhớ CXL tại một sự kiện ở Hàn Quốc, giải thích cách công ty di chuyển trong phân khúc cụ thể này.Đây là những gì quan chức đã nói:
Hiện tại, bộ nhớ AI về cơ bản là đơn vị xử lý đồ họa (GPU), nhưng bộ nhớ băng thông cao (HBM) không lớn như vậy, vì vậy nó luôn luôn là 'bộ nhớ đói'.Chúng tôi đang siêng năng làm việc để điều chỉnh bộ nhớ CXL cho AI.
Công viên Kyoung - VP nghiên cứu tại SK Hynix (thông qua kinh doanh Hàn Quốc)
Được tiết lộ rằng SK Hynix hiện đang hoạt động trên các sản phẩm bộ nhớ CXL 2.0 96GB và 128GB dựa trên DDR5, để đưa chúng ra thị trường vào nửa cuối năm 2025. Kỹ thuật kết nối CXL cho phép bộ nhớ truy cập trực tiếp vào các thành phần khácvới việc cung cấp chỗ cho công suất bộ nhớ nhiều hơn trên tàu.
Gần đây, Panmnesia, một công ty khởi nghiệp Hàn Quốc,Hiển thị một CXL IP tiên tiếnĐiều đó cho phép GPU tận dụng bộ nhớ từ DRAM hoặc thậm chí SSD, mở rộng từ HBM được xây dựng, vì vậy đó là một cách khác để đi với công nghệ này.
Tín dụng hình ảnh: SK Hynix tại DevCon 2024
Thật không may, SK Hynix chưa giới thiệu các giải pháp bộ nhớ CXL 2.0;Do đó, chúng tôi không thể nhận xét về hiệu quả của chúng đối với các ứng dụng AI ngay bây giờ.Tuy nhiên, Samsung được cho là dự kiến sẽ mang đến mô -đun bộ nhớ 256 GB CXL 2.0 của riêng mình trong năm nay, do đó có thể cho chúng ta một ý tưởng rõ ràng hơn về những gì mong đợi với công nghệ này tiến lên.