Với khoản lợi nhuận 3.96 tỷ USD trong quý II năm 2024, SK Hynix đã đạt được lợi nhuận kinh doanh cao nhất tính từ quý III năm 2018, tức là gần 6 năm về trước. Đạt được con số này, giám đốc marketing mảng chip nhớ DRAM của tập đoàn bán dẫn Hàn Quốc, Kim Kyu Hyun đưa ra tuyên bố: “Nhu cầu chip xử lý AI tiếp tục tăng trưởng vượt quá kỳ vọng. Chúng tôi đưa ra dự báo rằng doanh số chip nhớ HBM xuất xưởng trong năm 2025 sẽ tăng hơn gấp đôi so với doanh số năm 2024.” Khách hàng lớn nhất của SK Hynix tính đến thời điểm hiện tại không ai khác chính là Nvidia. Nhu cầu trang bị bộ nhớ DRAM xếp chồng công nghệ HBM3 đang giúp cho SK Hynix có được những đơn đặt hàng số lượng rất lớn, từ đó tạo ra doanh thu và lợi nhuận cực kỳ ấn tượng cho tập đoàn bán dẫn Hàn Quốc. Tuy nhiên giá cổ phiếu của SK Hynix cũng đang theo đà tuột dốc khi những ông lớn trong ngành công nghệ không vượt qua được dự báo tăng trưởng doanh thu và lợi nhuận của phố Wall, và kỳ vọng quá cao của các nhà đầu tư. Sau khi công bố lợi nhuận kỷ lục trong vòng 6 năm qua, giá cổ phiếu SK Hynix vẫn giảm tới 8.4%. Nhà sản xuất chip nhớ lớn thứ 2 thế giới đã được hưởng lợi nhiều nhất trong số những tập đoàn chip nhớ đang cạnh tranh với nhau, nhờ vào cơn sốt chip xử lý AI cao cấp, và ổ cứng SSD dành cho doanh nghiệp. Để đạt được điều này, trước đó SK Hynix đã có những khoản đầu tư lớn trong mảng chip nhớ HBM và chip nhớ lưu trữ NAND phục vụ doanh nghiệp. Cùng kỳ năm 2023, SK Hynix lỗ tới 2.9 nghìn tỷ Won, với lý do đầu tư trang thiết bị và nghiên cứu công nghệ DRAM HBM phục vụ cho những mẫu GPU xử lý AI vận hành trong những trung tâm dữ liệu lớn. Với việc Nvidia đang chiếm khoảng 80% thị phần GPU máy chủ phục vụ nghiên cứu xử lý AI, SK Hynix có lợi thế rất lớn trước hai đối thủ cạnh tranh trực tiếp, Samsung Electronics và Micron. Hồi tháng 3, SK Hynix đã bắt đầu sản xuất thương mại thế hệ chip nhớ HBM3e mới nhất, những đơn hàng đầu tiên phục vụ riêng một khách hàng duy nhất, chính là Nvidia. Ngay ở thời điểm công bố báo cáo tài chính quý II năm 2024, tập đoàn này đã công bố kế hoạch cung cấp thế hệ chip nhớ HBM3e 12 lớp kể từ quý IV năm nay, rồi tới nửa cuối năm 2025 sẽ là thế hệ chip nhớ HBM4, cải thiện cả tốc độ, dung lượng lẫn băng thông bộ nhớ. Samsung hiện tại vẫn chưa đáp ứng được yêu cầu của Nvidia đối với chip nhớ HBM3e, còn trong khi đó, chip nhớ xếp chồng thế hệ 4, HBM3 của Samsung đã được Nvidia ứng dụng cho những mẫu GPU máy chủ đám mây phục vụ cho thị trường Trung Quốc, ví dụ như H20, với băng thông thấp hơn, đáp ứng yêu cầu giới hạn sức mạnh chip bán dẫn theo quy định cấm vận của Mỹ đưa ra từ hồi tháng 11 năm ngoái. Nhà phân tích Lee Min Hee tại BNK Investment & Securities cho rằng: “SK Hynix cho biết họ sẽ tiếp tục giữ vị thế dẫn đầu về mặt kỹ thuật, xếp trên những đối thủ cạnh tranh trực tiếp. Nhưng kỳ vọng của những nhà đầu tư hiện tại đang quá cao, rất khó để đáp ứng điều đó, và ở tầm nhìn ngắn hạn, giá cổ phiếu của tập đoàn sẽ không có tốc độ tăng trưởng như kỳ vọng.” Tính đến cuối năm 2024, lợi nhuận từ chip nhớ HBM3e của SK Hynix bán cho các đối tác và khách hàng sẽ chiếm khoảng 20% tổng lợi nhuận kinh doanh cả năm của hãng. Con số này trong nửa đầu năm 2023 là con số 0 tròn trĩnh. Nvidia cũng đang tăng tốc kế hoạch phát triển những giải pháp GPU doanh nghiệp và máy chủ mới từ nay đến năm 2026, để đáp ứng nhu cầu của thị trường giữa cơn sốt AI. Hồi tháng 5 vừa rồi, CEO của SK Hynix, ông Kwak Noh Jung cho biết, đơn hàng chip nhớ HBM của tập đoàn này gia công đã kín sổ trong năm 2024, và sắp kín cả năm 2025, tức là những đơn hàng mới sẽ phải đợi qua tới năm 2026 mới có thể giao cho khách hàng. Theo Reuters