Nvidia Blackwell Ultra Hồi B300, giải phóng trong 2H 2025 - 1.1 exaflops của FP4 Tính toán, bộ nhớ 288 GB HBM3E, nhanh hơn 50% so với GB200
NVIDIA chính thức ra mắt Blackwell Ultra, nâng cao khả năng bộ nhớ và tính toán AI cho các trung tâm dữ liệu. Phiên bản Ultra của Blackwell có hiệu suất tăng 50% và dung lượng 288 GB bộ nhớ HBM3e. Mặc dù phiên bản đầu tiên gặp một số trục trặc, NVIDIA đã cải thiện nguồn cung cho sản phẩm AI mới nhất của mình, cung cấp phần cứng và giải pháp hiện đại cho các nhà cung cấp AI và trung tâm dữ liệu lớn.
Các dòng GPU B100 và B200 đầu tiên cung cấp khả năng tính toán AI vượt trội, và công ty sẽ thiết lập tiêu chuẩn mới với sản phẩm thế hệ tiếp theo, Blackwell Ultra. Các chip B300 sẽ mở rộng Blackwell, không chỉ tăng cường mật độ bộ nhớ với tối đa 12-Hi HBM3E mà còn cung cấp khả năng tính toán mạnh mẽ hơn cho AI nhanh hơn. Những chip này sẽ được kết hợp với các switch Ethernet Spectrum Ultra X800 512-Radix mới nhất.
Thông cáo báo chí: Dựa trên kiến trúc Blackwell tiên tiến ra mắt cách đây một năm, Blackwell Ultra bao gồm giải pháp rack-scale NVIDIA GB300 NVL72 và hệ thống NVIDIA HGX B300 NVL16. GB300 NVL72 cung cấp hiệu suất AI cao gấp 1.5 lần so với NVIDIA GB200 NVL72, đồng thời tăng cơ hội doanh thu cho Blackwell lên 50 lần cho các nhà máy AI so với những hệ thống sử dụng NVIDIA Hopper. NVIDIA Blackwell Ultra cho phép lý luận AI, kết nối 72 GPU Blackwell Ultra và 36 CPU NVIDIA Grace dựa trên Arm Neoverse trong thiết kế rack-scale, hoạt động như một GPU khổng lồ cho việc mở rộng trong thời gian thử nghiệm.
Với NVIDIA GB300 NVL72, các mô hình AI có thể tận dụng khả năng tính toán tăng cường của nền tảng để tìm kiếm giải pháp cho các vấn đề và giải quyết các yêu cầu phức tạp theo nhiều bước, mang lại phản hồi chất lượng cao hơn. GB300 NVL72 cũng dự kiến sẽ có mặt trên NVIDIA DGX Cloud, nền tảng AI được quản lý toàn diện trên các đám mây hàng đầu, tối ưu hóa hiệu suất với phần mềm, dịch vụ và chuyên môn AI cho các khối lượng công việc đang phát triển.
NVIDIA DGX SuperPOD với hệ thống DGX GB300 sử dụng thiết kế giá rack GB300 NVL72 để cung cấp cho khách hàng một nhà máy AI hoàn chỉnh. NVIDIA HGX B300 NVL16 mang lại hiệu suất suy diễn nhanh gấp 11 lần trên các mô hình ngôn ngữ lớn, với khả năng tính toán cao gấp 7 lần và bộ nhớ lớn gấp 4 lần so với thế hệ Hopper, phục vụ cho các tác vụ phức tạp như lý luận AI. Bảng lộ trình GPU AI trung tâm dữ liệu của NVIDIA bao gồm các mã GPU từ Feynman đến Pascal, với các thế hệ GPU như Rubin Ultra, Blackwell và Hopper, dự kiến ra mắt từ 2016 đến 2028.
Nguồn: wccftech.com/nvidia-blackwell-ultra-b300-2h-2025-1-1-exaflops-fp4-ai-288-gb-hbm3e-memory-50-percent-faster-than-gb200/