Samsung báo cáo giảm giá HBM3 cho Woo Nvidia
Ngành kinh doanh bán dẫn của Samsung vừa trải qua một quý khó khăn, với lợi nhuận giảm gần 94% so với năm trước. Đây là kết quả yếu nhất của bộ phận chip trong sáu quý qua, nguyên nhân chủ yếu do các hạn chế xuất khẩu của Mỹ đối với việc bán chip tiên tiến sang Trung Quốc và tình trạng điều chỉnh tồn kho kéo dài. Bộ phận Giải pháp Thiết bị của công ty chỉ ghi nhận lợi nhuận 400 tỷ won (287 triệu USD) cho quý 2 năm 2025, giảm mạnh so với con số 6.
Samsung đã thu về 5 triệu tỷ won, giảm so với 4,67 tỷ won cùng kỳ năm ngoái. Tuy nhiên, công ty đang đặt cược lớn vào trí tuệ nhân tạo để thay đổi tình hình trước cuối năm. Samsung tin rằng sự phục hồi nằm ở HBM3E - thế hệ bộ nhớ băng thông cao mới nhất, được sử dụng để cung cấp dữ liệu cho các bộ tăng tốc AI với tốc độ nhanh. Theo báo cáo từ ZDNet Korea, công ty đang nỗ lực giảm chi phí sản xuất HBM3E để thu hút Nvidia, hiện đang phụ thuộc nhiều vào SK hynix cho chuỗi cung ứng GPU AI của mình.
Chiến lược của Samsung là làm cho bộ nhớ HBM3E trở nên tiết kiệm và dễ tiếp cận hơn so với đối thủ, nhằm trở thành yếu tố không thể thiếu cho tương lai của tính toán AI. HBM3E (High Bandwidth Memory Gen 3E) rất quan trọng trong các bộ tăng tốc AI hiện đại, đặc biệt trong việc đào tạo mô hình ngôn ngữ lớn, nơi mà băng thông và dung lượng là những yếu tố hạn chế hiệu suất. Đây là loại bộ nhớ được sử dụng trên các GPU AI cao cấp của Nvidia như B300.
Intel và SoftBank hợp tác phát triển giải pháp thay thế HBM tiết kiệm năng lượng cho trung tâm dữ liệu AI. Samsung sẽ áp dụng công nghệ kết nối lai cho bộ nhớ HBM4. Lộ trình phát triển HBM đã được tiết lộ, với HBM8 dự kiến ra mắt năm 2038, có giao diện 16.384 bit và NAND nhúng. Doanh thu quý của bộ phận bộ nhớ của Samsung tăng 11% so với Q1, đạt 21,2 triệu tỷ won (15,2 tỷ USD), nhờ vào sự mở rộng của HBM3E và DDR5 dung lượng cao cho máy chủ.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Tồn kho NAND đang được tiêu thụ nhanh chóng nhờ doanh số SSD cho máy chủ tăng lên. Trong nửa sau năm nay, Samsung dự định tăng sản xuất các sản phẩm như DDR5 128GB, GDDR7 24Gb và V-NAND thế hệ thứ 8, đặc biệt cho các ứng dụng máy chủ AI. Một yếu tố tích cực cho triển vọng lâu dài của Samsung là hợp tác trị giá 16,5 tỷ USD với Tesla, trong đó Samsung sẽ sản xuất chip AI6 thế hệ mới tại nhà máy ở Texas cho đến năm 2033.
Điều này có thể mang lại quy mô và sự ổn định cần thiết cho hoạt động sản xuất của Samsung, đặc biệt khi công ty đang đối mặt với sự cạnh tranh gay gắt từ TSMC và các áp lực địa chính trị khác. Tuần này, Tổng thống Mỹ Donald Trump đã áp thuế 15% lên hàng hóa Hàn Quốc, giảm từ 25%, tạo thêm bất ổn cho triển vọng phục hồi nửa cuối năm. Samsung đang ở trong tình thế khó khăn – đặt cược vào AI để vượt qua khó khăn, trong khi phải điều chỉnh theo các biến động thương mại và cố gắng lấy lại thị phần trong lĩnh vực bộ nhớ cao cấp cạnh tranh khốc liệt.
Nếu Samsung có thể sản xuất HBM3E với chi phí thấp và năng suất cao, điều này có thể thay đổi cục diện. Việc lấy lại sự tin tưởng từ Nvidia, hiện đang thử nghiệm HBM3E của Samsung nhưng vẫn hoài nghi về nhiệt độ và hiệu suất năng lượng, sẽ là một bước ngoặt. Cùng với Meta, Microsoft và Amazon đang mở rộng silicon AI nội bộ, các nhà cung cấp bộ nhớ như Samsung đang trong một cuộc đua mới để chứng minh không chỉ khả năng mà còn giá trị.
Theo dõi Toms Hardware trên Google News để nhận tin tức, phân tích và đánh giá mới nhất trong nguồn tin của bạn. Hãy nhớ nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/pc-components/gpus/samsung-reportedly-slashes-hbm3-prices-to-woo-nvidia-cuts-could-put-the-heat-on-rivals-sk-hynix-and-micron-as-company-attempts-to-spur-ai-turnaround