Nguyên nhân thứ hai, hầu hết các công ty công nghệ lớn nhất Trung Quốc là đối thủ cạnh tranh của chính Huawei và do đó vẫn còn e ngại khi đặt cược hoàn toàn vào sản phẩm của đối thủ.
Nguyên nhân thứ ba, chip Ascend 910C của Huawei gặp phải vấn đề quá nhiệt khi vận hành, ảnh hưởng đến đánh giá về độ tin cậy trong giới các tập đoàn công nghệ lớn ở Trung Quốc. Nếu DeepSeek quyết định ủng hộ chip AI của Huawei, điều này sẽ khuyến khích một đội quân đông đảo các nhà phát triển nguồn mở xây dựng trên hệ sinh thái của Huawei. Tuy nhiên, sự kiện đó vẫn chưa xảy ra.
Nguyên nhân thứ tư, nhiều công ty công nghệ lớn nhất Trung Quốc đã đặt hàng trước và tích trữ một lượng lớn GPU Nvidia trong những năm qua. Số lượng hàng tồn kho này vẫn còn dồi dào, khiến các tập đoàn và các dịch vụ đám mây ít có động lực để thực hiện quá trình chuyển đổi tốn kém, chí ít ở thời điểm hiện tại.
Nguyên nhân thứ năm, Bộ Thương mại
Mỹ đã khiến chip của Huawei trở thành một món hàng "nhạy cảm" vào tháng 5, khi các nhà quản lý tại Washington ban hành hướng dẫn rộng rãi, rằng bất kỳ công ty nào sử dụng các chip này mà không có sự chấp thuận trước đều có thể bị coi là vi phạm kiểm soát xuất khẩu của Mỹ. Hướng dẫn này gây ảnh hưởng lớn đến các thực thể Trung Quốc có hoạt động ở nước ngoài.
Như đã đề cập trong một bài đăng trước đó, Ascend 910C của Huawei kết hợp hai chip 910B cũ hơn để cung cấp công suất tính toán khoảng 800 TFLOP ở định dạng số thực FP16, với băng thông bộ nhớ lên tới 3.2 TB/s. Chip này được đánh giá ngang hàng với GPU H100 của NVIDIA.
Gần đây, để cung cấp một giải pháp thay thế cho siêu máy tính của NVIDIA kết hợp tối đa 72 chip Blackwell bằng kết nối NVLink độc quyền, Huawei đã giới thiệu CloudMatrix 384, tích hợp tới 384 chip Ascend để cung cấp công suất tính toán tương đương nhưng thiếu hỗ trợ trực tiếp cho các định dạng tính toán tối ưu hóa bộ nhớ như FP8. Các mô hình AI được huấn luyện ở định dạng FP8 thường tiêu thụ ít bộ nhớ hơn đáng kể. Tất nhiên, Huawei đã tạo ra một công cụ dịch thuật để giả lập khả năng tương thích với FP8, nhưng giải pháp này vẫn còn chưa tối ưu.
Trong khi đó, Nvidia dường như đang hoạt động rất tốt ngay cả khi không có sự hỗ trợ từ Trung Quốc. Ví dụ, UBS gần đây đã nhấn mạnh tuyên bố của Nvidia trong cuộc họp báo cáo thu nhập quý I năm 2026 rằng họ có thể thấy những dự án cơ sở hạ tầng AI với tổng công suất vận hành lên tới hàng chục gigawatt trên toàn thế giới. Để vận hành mỗi gigawatt công suất xử lý điện toán máy chủ AI, ước tính Nvidia sẽ kiếm được 40 đến 50 tỷ USD doanh thu.
Điều này đồng nghĩa với việc trong vòng 2 đến 3 năm nữa nếu các quốc gia trên toàn thế giới mở rộng xây dựng data center, Nvidia có khả năng sẽ thu về 400 tỷ USD mỗi năm, chỉ tính riêng mảng máy chủ đám mây.