Giám đốc điều hành của NVIDIA cho biết Trung Quốc không ở phía sau Hoa Kỳ trong khả năng AI
Jensen Huang, CEO của Nvidia, cho biết tại Diễn đàn Hill and Valley rằng Trung Quốc không thua kém nhiều so với Mỹ trong việc phát triển phần cứng và phần mềm AI. Trong khi các công ty Trung Quốc đã đạt được tiến bộ đáng kể trong dịch vụ và phần mềm AI, nhận xét của Huang chủ yếu đề cập đến phần cứng AI của Trung Quốc. Trùng hợp, Huawei đã bắt đầu vận chuyển hệ thống AI mới nhất của mình, được coi là có tính cạnh tranh với GB200 NVL72 của Nvidia, theo Financial Times.
Tuy nhiên, có một vấn đề. Trung Quốc không thua kém ai, mà họ đang ở rất gần chúng ta, theo Huang tại diễn đàn Hill and Valley, nơi các lãnh đạo doanh nghiệp và nhà lập pháp thảo luận về công nghệ và an ninh quốc gia, theo Bloomberg Podcasts. Về phần cứng, Trung Quốc có nhiều công ty phát triển chip AI cạnh tranh với phần cứng AI của Nvidia.
Huawei đang dẫn đầu trong lĩnh vực AI với chiến lược bao gồm các bộ tăng tốc AI Ascend 900, máy chủ và giải pháp quy mô giá đỡ cho trung tâm dữ liệu đám mây. Gần đây, công ty đã công bố CloudMatrix 384, với 384 chip HiSilicon Ascend 910C kết nối qua mạng quang hoàn toàn. Đến nay, Huawei đã bán hơn 10 hệ thống CloudMatrix 384 cho khách hàng Trung Quốc, cho thấy một số người muốn thử nghiệm các lựa chọn nội địa thay thế cho phần cứng Nvidia bị hạn chế.
Không thể phủ nhận rằng Huawei là một trong những công ty công nghệ hàng đầu thế giới, nổi bật trong lĩnh vực máy tính, công nghệ mạng và khả năng phần mềm, tất cả đều cần thiết để phát triển trí tuệ nhân tạo. Họ đã có những tiến bộ lớn trong vài năm qua. Hệ thống Huawei CloudMatrix 384 gồm 16 tủ, trong đó có 12 tủ tính toán mỗi tủ chứa 32 bộ tăng tốc Ascend 910C, cùng bốn tủ chuyên dụng quản lý kết nối quang học thông qua 6.912 bộ thu phát quang với tốc độ 800G LPO.
CloudMatrix 384 đạt khoảng 300 PFLOPs tính toán BF16 dày đặc, gần gấp đôi so với Nvidias GB200 NVL72, với băng thông bộ nhớ cao hơn 2,1 lần và dung lượng HBM lớn hơn 3,6 lần nhờ HBM2E. Các kết nối quang của CM384 mang lại lợi thế băng thông đáng kể, bao gồm khả năng mở rộng tốt hơn 2,1 lần và mở rộng quy mô tốt hơn 5,3 lần. Tuy nhiên, hiệu quả của nó vẫn thấp hơn so với Nvidias GB200 NVL72, tiêu tốn 2 lần điện năng.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Cung cấp sức mạnh cao gấp 3 lần mỗi FLOP, băng thông bộ nhớ cao gấp 1.8 lần mỗi TB, và cao gấp 1.1 lần mỗi TB bộ nhớ HBM. Việc vận chuyển 10 hệ thống CM384 không phải là điều lớn, đặc biệt khi các công ty công nghệ Trung Quốc như Alibaba, ByteDance và Tencent đã đầu tư 16 tỷ USD vào GPU H20 HGX của Nvidia trong quý đầu năm, dự đoán về các hạn chế xuất khẩu của Mỹ được gọi là Quy tắc Phát tán AI sẽ bắt đầu vào giữa tháng 5.
Dù sao, 10 hệ thống có thể là khởi đầu. Huawei được cho là có khoảng một triệu chip HiSilicon Ascend 910C, đủ cho 2.600 hệ thống CloudMatrix 384. Các cụm CM384 này có thể cung cấp khoảng 780 ExaFLOPS tính toán BF16. Để đạt hiệu suất tương tự, cần khoảng 4.300 máy Nvidias GB200 NVL72 hoặc khoảng 312.000 GPU B200 AI. Nhà phân tích Ming-Chi Kuo ước tính rằng việc giao hàng các giá GB200 NVL72 vào năm 2025 có thể đạt khoảng 25.000 – 35.000 giá, và công ty cũng sẽ giao hàng các giá GB300 NVL72 cũng như các GPU B100, B200 và B300 AI.
Điều này có nghĩa là Nvidia sẽ cung cấp khả năng tính toán AI gấp nhiều lần so với Huawei trong năm nay. Tuy nhiên, Huawei cũng sở hữu công nghệ có thể cạnh tranh với công ty Mỹ. Theo dõi Toms Hardware trên Google News để nhận tin tức, phân tích và đánh giá mới nhất. Hãy nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-ceo-says-china-is-not-far-behind-the-u-s-in-ai-capabilities