Bộ xử lý AI trong tương lai cho biết sẽ tiêu thụ tới 15.360W
Tiêu thụ điện năng của GPU AI đã tăng đều trong những năm gần đây và dự kiến sẽ tiếp tục tăng khi các bộ xử lý AI tích hợp nhiều chip HBM hơn. Một số nguồn trong ngành cho biết Nvidia đang xem xét công suất thiết kế nhiệt từ 6.000W đến 9.000W cho GPU thế hệ tiếp theo, nhưng các chuyên gia từ KAIST, một viện nghiên cứu hàng đầu của Hàn Quốc, tin rằng TDP của GPU AI có thể tăng lên tới 15.360W trong vòng 10 năm tới.
Do đó, họ sẽ cần các phương pháp làm mát cực đoan, bao gồm cả làm mát ngâm và làm mát nhúng. Cho đến gần đây, hệ thống làm mát không khí hiệu suất cao với bộ tản nhiệt đồng và quạt áp suất cao đã đủ để làm mát các bộ vi xử lý AI H100 của Nvidia. Tuy nhiên, khi Blackwell của Nvidia tăng mức tỏa nhiệt lên 1.200W và Blackwell Ultra lên 1.400W, giải pháp làm mát bằng chất lỏng gần như trở thành bắt buộc.
Rubin đang trở nên nóng hơn, với TDP tăng lên 1,800W, và Rubin Ultra sẽ gấp đôi số lượng chip GPU và mô-đun HBM, với TDP lên đến 3,600W. Các nhà nghiên cứu từ KAIST cho rằng Nvidia và các đối tác sẽ sử dụng hệ thống làm mát trực tiếp cho chip D2C với Rubin Ultra, nhưng với Feynman, họ sẽ cần một giải pháp mạnh mẽ hơn. Dự kiến, các GPU AI sẽ có mức tiêu thụ điện như sau:
- Blackwell Ultra (2025): 1,400W, D2C
- Rubin (2026): 1,800W, D2C
- Rubin Ultra (2027): 3,600W, D2C
- Feynman (2028): 4,400W, Làm mát ngâm
- Feynman Ultra (2029): 6,000W, Làm mát ngâm
- Post-Feynman (2030): 5,920W, Làm mát ngâm
- Post-Feynman Ultra (2031): 9,000W, Làm mát ngâm
- 2032: 15,360W, Làm mát nhúng
Các dự đoán từ KAIST và nguồn công nghiệp cho thấy Feynman sẽ tiêu thụ 4,400W, trong
Nhiệt độ cực cao sẽ cần sử dụng hệ thống làm mát ngâm, trong đó toàn bộ mô-đun GPU-HBM được ngâm trong chất lỏng nhiệt. Các bộ xử lý và mô-đun HBM này sẽ được lắp đặt qua các kênh nhiệt TTVs, là các kênh thẳng đứng trong nền silicon để tản nhiệt. Chúng sẽ kết hợp với các lớp liên kết nhiệt và cảm biến nhiệt độ được tích hợp trong đế mô-đun HBM để giám sát nhiệt độ theo thời gian thực và điều khiển phản hồi.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Hệ thống làm mát bằng ngâm lỏng dự kiến sẽ đủ hiệu quả đến năm 2032, khi kiến trúc GPU hậu Feynman sẽ tăng TDP mỗi gói lên tới 5,920W hoặc thậm chí 9,000W cho phiên bản Ultra. Cần lưu ý rằng các chip tính toán là những người tiêu thụ điện chính trong mô-đun GPU. Tuy nhiên, khi số lượng HBM tăng lên 16 với kiến trúc hậu Feynman, và mức tiêu thụ điện mỗi ngăn tăng lên 120W với HBM6, tổng mức tiêu thụ điện của bộ nhớ sẽ khoảng 2,000W, chiếm khoảng 13% tổng mức tiêu thụ của cả gói.
Các nhà nghiên cứu từ KAIST dự đoán rằng đến năm 2035, mức tiêu thụ điện của GPU AI sẽ tăng lên khoảng 15.360, đòi hỏi phải có các cấu trúc làm mát tích hợp cho các chip xử lý và bộ nhớ. Họ đề xuất hai sáng kiến chính: đường ống truyền nhiệt TTL giúp chuyển nhiệt từ các điểm nóng ra các giao diện làm mát, và TSV chất lỏng F-TSV cho phép chất làm mát chảy theo chiều dọc qua ngăn xếp HBM.
Các phương pháp này được tích hợp trực tiếp vào interposer và silicon để duy trì độ ổn định nhiệt. Đến năm 2038, các giải pháp nhiệt hoàn toàn tích hợp sẽ trở nên phổ biến và tiên tiến hơn. Chúng sẽ sử dụng interposer hai mặt để cho phép xếp chồng theo chiều dọc ở cả hai bên, với hệ thống làm mát bằng chất lỏng tích hợp. Ngoài ra, kiến trúc GPU ở trên sẽ giúp ưu tiên việc loại bỏ nhiệt từ lớp tính toán, trong khi TSV đồng trục hỗ trợ cân bằng giữa tính toàn vẹn tín hiệu và dòng nhiệt.
Hình ảnh: KAIST. Theo dõi Toms Hardware trên Google News để nhận thông tin, phân tích và đánh giá mới nhất. Đừng quên nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech