Trung Quốc có kế hoạch 39 trung tâm dữ liệu AI với 115.000 GPU phễu NVIDIA bị hạn chế
Các công ty Trung Quốc đang chuẩn bị trang bị 39 trung tâm dữ liệu AI mới — chủ yếu ở Tân Cương và Thanh Hải — với hơn 115.000 GPU Nvidia Hopper hiệu suất cao, mặc dù việc xuất khẩu GPU H100 và H200 của Nvidia sang Trung Quốc bị hạn chế bởi quy định của Mỹ. Tuy nhiên, các cơ quan địa phương ở Tân Cương và Thanh Hải vẫn cho phép xây dựng các trung tâm dữ liệu lớn, theo báo cáo của Bloomberg.
Mặc dù nhu cầu về hiệu suất tính toán AI có chậm lại, nhưng việc xây dựng trung tâm dữ liệu tại Trung Quốc vẫn không bị ảnh hưởng. Một cụm lớn gồm 70% công suất xử lý — với khoảng 80.500 GPU H100 và H200 của Nvidia — dự kiến sẽ tập trung tại một trung tâm dữ liệu thuộc sở hữu nhà nước ở huyện Yiwu, Tân Cương. 30% còn lại sẽ được phân bố ở ít nhất vài chục dự án trung tâm dữ liệu khác, chủ yếu ở Tân Cương, ngoài Yiwu và tại tỉnh Thanh Hải.
Một trong những dự án lớn là của Nyocor, dự kiến sẽ lắp đặt 625 máy chủ H100 DGX với khoảng 5.000 bộ tăng tốc H100 qua nhiều giai đoạn, bắt đầu với giai đoạn đầu tiên gồm 250 máy 8-way và 2.000 GPU H100. Những kế hoạch này dựa trên các tài liệu đầu tư và hồ sơ đấu thầu chính thức được Bloomberg xem xét. Để hiểu rõ hơn về số lượng GPU Hopper — tổng cộng 115.000, trong đó 80.500 dành cho trung tâm dữ liệu ở huyện Yiwu, Tân Cương — thì Elon Musk's xAI đã sử dụng khoảng 100.000 bộ vi xử lý H100 để huấn luyện mô hình AI Grok 3, một trong những mô hình tiên tiến nhất hiện nay.
DeepSeek đã huấn luyện mô hình R1 bằng một cụm GPU gồm 50.000 GPU Nvidia Hopper, trong đó có 30.000 đơn vị H20 HGX, 10.000 H800 và 10.000 H100. Thông tin về cách DeepSeek huấn luyện mô hình R2 vẫn chưa rõ. Các công ty Trung Quốc đã tích trữ hàng tỷ đô la GPU Nvidia H20 trước khi có lệnh cấm gần đây. Nvidia cảnh báo rằng quy định xuất khẩu phần cứng AI của Mỹ có thể phản tác dụng, tạo cơ hội cho Huawei định hình tiêu chuẩn toàn cầu. Nvidia cũng đang phát triển chip AI mới cho Trung Quốc để đáp ứng các quy định xuất khẩu. Vì các công ty Trung Quốc thường là doanh nghiệp nhà nước, họ không công bố thông số kỹ thuật hoặc hiệu suất của các cụm AI, khiến việc so sánh với các cụm AI hiện có ở Trung Quốc trở nên khó khăn.
Nếu thành hiện thực, Trung Quốc có thể sở hữu một trong những trung tâm dữ liệu AI mạnh nhất. Một cụm với khoảng 80.000 GPU Hopper H100 và H200 sẽ củng cố hạ tầng AI của nước này. Nó có thể được sử dụng để đào tạo các mô hình ngôn ngữ lớn (LLMs) và mô hình suy luận lớn (LRMs). Theo thông tin từ chính phủ Trung Quốc được Bloomberg trích dẫn, Tân Cương đã xây dựng một trung tâm dữ liệu cung cấp 24.000 PetaFLOPS sức mạnh xử lý, tương đương khoảng 12.000 Nvidia H100, phục vụ cho các thành phố khác như Trùng Khánh.
Để thu hút nhà đầu tư, các quan chức địa phương đã cung cấp mức giảm 20% tiền điện cùng với các ưu đãi tài chính và nhà ở cho chuyên gia trong lĩnh vực AI và công nghệ xanh. Theo Bloomberg, việc hoàn thành 39 dự án sẽ cần mua hơn 14.000 máy chủ sử dụng bộ vi xử lý H100 hoặc H200, trị giá hàng tỷ đô la trên thị trường chợ đen của Trung Quốc.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Các nhà điều hành trung tâm dữ liệu tại Tân Cương và Thanh Hải có thể sử dụng bộ vi xử lý H20 HGX cho các tác vụ của họ, nhưng trong tài liệu xin phép, họ đã chỉ rõ nhu cầu sử dụng H100 với hiệu suất cao và H200 với dung lượng bộ nhớ lớn cho dự án của mình. Tùy thuộc vào các thông số cụ thể, H100 có thể nhanh hơn H20 cắt giảm từ 3.3 đến 6.69 lần với các định dạng dữ liệu AI.
Các định dạng dữ liệu HPC nhanh hơn 52 – 64 lần. Tuy nhiên, ngay cả khi hiệu suất tăng tuyến tính (không phải cách hoạt động khi cụm phần cứng AI), cần từ 380.000 đến 770.000 H20 để thay thế 115.000 H100 GPU. Dưới đây là thông số kỹ thuật:
- Kiến trúc GPU: Hopper GH100
- Bộ nhớ: 96 GB HBM3 (H20) và 80 GB HBM3 (H100) với băng thông bộ nhớ lần lượt là 4.0 TB/s và 3.35 TB/s.
Thông số kỹ thuật tóm tắt:
- INT8 FP8 Tensor: 296 TFLOPS, 1980 TFLOPS, hiệu suất 6.69X
- BF16 FP16 Tensor: 148 FLOPS, 495 TFLOPS, hiệu suất 3.34X
- TF32 Tensor: 74 TFLOPS, 495 TFLOPS, hiệu suất 3.69X
- FP32: 44 TFLOPS, 67 TFLOPS, hiệu suất 1.52X
- FP64: 1 TFLOPS, 34 TFLOPS, hiệu suất 34X
- RT Core: Không có
- MIG: Tối đa 7 MIG
- L2 Cache: 60 MB
- Media Engine: 7 NVDEC, 7 NVJPEG
- Công suất: 400W
- Kích thước: 8-way HGX
- Giao diện: PCIe Gen5 x16, 128 GBs
- NVLink: 900 GBs
Chưa có thông tin về nguồn cung cấp các bộ phận này, nhưng có nhiều máy chủ GPU đã bị buôn lậu vào Trung Quốc.
Những người nắm rõ về các cuộc điều tra của chính phủ Mỹ cho biết họ không biết cụ thể về các dự án tại Tân Cương, nhưng xác nhận với Bloomberg rằng có một số phần cứng Nvidia không được phép ở Trung Quốc. Họ bày tỏ nghi ngờ rằng có thể có một mạng lưới tổ chức nào cung cấp hơn 100.000 bộ xử lý bị hạn chế cho một quốc gia, đặc biệt là trong một khu vực. Các ước tính về tổng số chip như vậy ở Trung Quốc thì khác nhau.
Hai quan chức cấp cao trong chính quyền Biden cho biết con số gần 25,000, thấp hơn nhiều so với yêu cầu của các dự án của Trung Quốc. Đến nay, không có bằng chứng trực tiếp cho thấy Trung Quốc đã tích lũy hoặc sẽ sớm nhận được hơn 115,000 GPU hạn chế theo kế hoạch xây dựng. Dù vậy, công việc tại các cơ sở vẫn tiếp tục. Tại Yiwu, nơi diễn ra phần lớn hoạt động, một tháp năng lượng mặt trời lớn đã được xây dựng để cung cấp điện ổn định.
Vị trí được chọn vì có khả năng tiếp cận năng lượng mặt trời và gió, đất đai rẻ.
Nguồn: www.tomshardware.com/pc-components/gpus/china-plans-39-ai-data-centers-with-115-000-restricted-nvidia-hopper-gpus-move-raises-alarm-over-sourcing-effectiveness-of-bans