Chip AI Huawei khó cạnh tranh Nvidia vì nóng hơn và công cụ phát triển kém hơn CUDA

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Chip AI Huawei khó cạnh tranh Nvidia vì nóng hơn và công cụ phát triển kém hơn CUDA
Hình ảnh rao vặt

Chip AI Huawei khó cạnh tranh Nvidia vì nóng hơn và công cụ phát triển kém hơn CUDA

Huawei từng hy vọng có thể giúp Trung Quốc giảm sự phụ thuộc vào chip GPU máy chủ của Nvidia thông qua dòng sản phẩm mới Ascend 910C, nhưng có vẻ như họ vẫn đang tiếp tục phải đối mặt với những rào cản đáng kể. Nguyên nhân chủ yếu đến từ việc Nvidia duy trì lợi thế nhờ hệ sinh thái phần mềm CUDA và những hạn chế nội tại của chính Huawei.

Theo nguồn tin trong một bài viết mới từ The Information, các công ty công nghệ lớn của Trung Quốc, bao gồm ByteDance (công ty mẹ của TikTok), Alibaba và Tencent, vẫn chưa đặt mua chip AI của Huawei với số lượng lớn.

Nhiều yếu tố đã góp phần tạo nên sự trì trệ xung quanh GPU Ascend 910C của Huawei, hiện đang được tập trung cung cấp cho các doanh nghiệp nhà nước lớn và chính quyền địa phương do thiếu động lực từ đơn hàng dựa trên nhu cầu công nghệ.

Nguyên nhân đầu tiên, nhiều công ty công nghệ hàng đầu Trung Quốc đã đầu tư đáng kể vào hệ sinh thái CUDA của Nvidia, và việc tách rời khỏi sự kiểm soát thị trường chip AI máy chủ đám mây của Nvidia sẽ đòi hỏi một khoản đầu tư lớn về cả thời gian lẫn nguồn lực. The Information còn cho biết, nhiều công ty trong số này kỳ vọng Huawei sẽ điều chỉnh để phù hợp với nền tảng của họ, thay vì ngược lại, điều chỉnh cách phát triển và quản lý phần mềm để hợp với chip Ascend.

Vấn đề này càng trở nên rõ ràng khi xem xét rằng kiến trúc điện toán CANN (Compute Architecture for Neural Networks), giải pháp thay thế API CUDA của Huawei, không đầy đủ các tính năng như phần mềm độc quyền của NVIDIA.


Nguyên nhân thứ hai, hầu hết các công ty công nghệ lớn nhất Trung Quốc là đối thủ cạnh tranh của chính Huawei và do đó vẫn còn e ngại khi đặt cược hoàn toàn vào sản phẩm của đối thủ.

Nguyên nhân thứ ba, chip Ascend 910C của Huawei gặp phải vấn đề quá nhiệt khi vận hành, ảnh hưởng đến đánh giá về độ tin cậy trong giới các tập đoàn công nghệ lớn ở Trung Quốc. Nếu DeepSeek quyết định ủng hộ chip AI của Huawei, điều này sẽ khuyến khích một đội quân đông đảo các nhà phát triển nguồn mở xây dựng trên hệ sinh thái của Huawei. Tuy nhiên, sự kiện đó vẫn chưa xảy ra.

Nguyên nhân thứ tư, nhiều công ty công nghệ lớn nhất Trung Quốc đã đặt hàng trước và tích trữ một lượng lớn GPU Nvidia trong những năm qua. Số lượng hàng tồn kho này vẫn còn dồi dào, khiến các tập đoàn và các dịch vụ đám mây ít có động lực để thực hiện quá trình chuyển đổi tốn kém, chí ít ở thời điểm hiện tại.

Nguyên nhân thứ năm, Bộ Thương mại Mỹ đã khiến chip của Huawei trở thành một món hàng "nhạy cảm" vào tháng 5, khi các nhà quản lý tại Washington ban hành hướng dẫn rộng rãi, rằng bất kỳ công ty nào sử dụng các chip này mà không có sự chấp thuận trước đều có thể bị coi là vi phạm kiểm soát xuất khẩu của Mỹ. Hướng dẫn này gây ảnh hưởng lớn đến các thực thể Trung Quốc có hoạt động ở nước ngoài.

Như đã đề cập trong một bài đăng trước đó, Ascend 910C của Huawei kết hợp hai chip 910B cũ hơn để cung cấp công suất tính toán khoảng 800 TFLOP ở định dạng số thực FP16, với băng thông bộ nhớ lên tới 3.2 TB/s. Chip này được đánh giá ngang hàng với GPU H100 của NVIDIA.

Gần đây, để cung cấp một giải pháp thay thế cho siêu máy tính của NVIDIA kết hợp tối đa 72 chip Blackwell bằng kết nối NVLink độc quyền, Huawei đã giới thiệu CloudMatrix 384, tích hợp tới 384 chip Ascend để cung cấp công suất tính toán tương đương nhưng thiếu hỗ trợ trực tiếp cho các định dạng tính toán tối ưu hóa bộ nhớ như FP8. Các mô hình AI được huấn luyện ở định dạng FP8 thường tiêu thụ ít bộ nhớ hơn đáng kể. Tất nhiên, Huawei đã tạo ra một công cụ dịch thuật để giả lập khả năng tương thích với FP8, nhưng giải pháp này vẫn còn chưa tối ưu.

Trong khi đó, Nvidia dường như đang hoạt động rất tốt ngay cả khi không có sự hỗ trợ từ Trung Quốc. Ví dụ, UBS gần đây đã nhấn mạnh tuyên bố của Nvidia trong cuộc họp báo cáo thu nhập quý I năm 2026 rằng họ có thể thấy những dự án cơ sở hạ tầng AI với tổng công suất vận hành lên tới hàng chục gigawatt trên toàn thế giới. Để vận hành mỗi gigawatt công suất xử lý điện toán máy chủ AI, ước tính Nvidia sẽ kiếm được 40 đến 50 tỷ USD doanh thu.

Điều này đồng nghĩa với việc trong vòng 2 đến 3 năm nữa nếu các quốc gia trên toàn thế giới mở rộng xây dựng data center, Nvidia có khả năng sẽ thu về 400 tỷ USD mỗi năm, chỉ tính riêng mảng máy chủ đám mây.


Theo WCCFTech
Nguồn:tinhte.vn/thread/chip-ai-huawei-kho-canh-tranh-nvidia-vi-nong-hon-va-cong-cu-phat-trien-kem-hon-cuda.4024173/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn