Những ngày đầu tiên của năm Ất Tỵ, có lẽ cụm từ khoá được nhắc đến nhiều nhất trên thị trường công nghệ không gì khác hơn chính là DeepSeek cùng những mô hình AI mà startup Trung Quốc này tạo ra. Từ chuyện so sánh khả năng tư duy lý luận logic với R1, đem so sánh nó với những mô hình như o1 của OpenAI hay Claude của Anthropic, rồi phân tích cả những giải pháp huấn luyện theo kiểu “học củng cố” - reinforcement learning, thứ khiến cho đội ngũ kỹ sư và các nhà nghiên cứu của DeepSeek tiêu tốn kinh phí tối thiểu để đổi lại hiệu năng xử lý tối đa của mô hình AI.
Chính yếu tố này là chủ đề trong bài viết ngày hôm nay, để chúng ta đem ra bàn luận. Con số chỉ hơn 5 triệu USD kinh phí vận hành máy chủ đám mây để huấn luyện reinforcement learning cho R1 của DeepSeek đã khiến Nvidia mất toi 600 tỷ USD giá trị vốn hoá, dù rằng chính bản thân DeepSeek cũng khẳng định hệ thống máy chủ huấn luyện R1 hay V3 của họ đều sử dụng GPU của Nvidia, dù rằng nó là phiên bản cũ, kết hợp cả chip H100 lẫn H800, phiên bản dành riêng cho thị trường Trung Quốc.
Điều này đồng nghĩa với việc, Nvidia hoàn toàn không lo bị đe doạ bởi những sản phẩm nội địa Trung Quốc, chẳng hạn như Huawei Ascend 910B, sản phẩm được tạo ra để phục vụ cho những nỗ lực chạy đua sức mạnh AI của đất nước này, giữa lúc phía Mỹ liên tục có những động thái giới hạn cũng như cấm vận bán dẫn, vừa để Trung Quốc không thể chạy đua tự chủ công nghệ chip bán dẫn, vừa không cho phép các doanh nghiệp và tổ chức của đất nước này tạo ra những công nghệ AI đe doạ tới vị thế dẫn đầu của nước Mỹ hiện giờ.
Thế thì vì sao DeepSeek dùng chip của Nvidia tạo ra những sản phẩm như V3 và R1, nhưng cổ phiếu của Nvidia lại tuột dốc hồi đầu tuần? Vấn đề không phải là dùng chip gì, mà là dùng bao nhiêu chip, cũng như chi phí vận hành toàn bộ hệ thống.
Như trong một bài viết mình từng dịch và gửi tới anh em, đã có một nhà phân tích đưa ra con số ước tính, so với con số 5.6 triệu USD mà DeepSeek đã bỏ ra để huấn luyện R1, thì để tạo ra những thứ như Llama hay o1, các đơn vị phương Tây và Mỹ cần tiêu cả trăm tới cả tỷ USD. Con số này bao gồm cả kinh phí nghiên cứu kiến trúc mô hình, thử nghiệm, xây dựng mô hình và cả bước huấn luyện mô hình, bao gồm cả chi phí xây dựng hệ thống máy chủ đám mây cũng như những cơ sở hạ tầng có liên quan, lẫn cả chi phí vận hành chính hệ thống ấy.
Vấn đề lúc này nảy sinh.
Thành công của Nvidia trong vòng hơn hai năm vừa qua gần như đến từ một động thái duy nhất của ngành công nghệ toàn cầu: Cuộc chạy đua vũ trang mở rộng quy mô cơ sở hạ tầng điện toán đám mây, vừa phục vụ nghiên cứu phát triển AI, vừa vận hành chính những mô hình ấy để kiếm lời cho các tập đoàn và doanh nghiệp.
“Cốt truyện” cơ bản mà anh em trước giờ vẫn được nghe, và cũng chính là thứ giúp Nvidia kiếm được 63 tỷ USD trong 4 quý kinh doanh gần nhất, là tuyên bố cho rằng, mô hình AI càng nhiều tham số thì càng cần số lượng lớn GPU máy chủ vận hành đồng thời để huấn luyện rồi thực hiện nội suy tạo sinh phục vụ mọi người.
Vậy là từ Meta đến Microsoft, từ Amazon đến xAI, rồi cả Google, rồi thậm chí là cả những đơn vị được gọi là “neocloud”, những nhà cung cấp dịch vụ đám mây mới nổi, nơi thì bỏ hàng chục tỷ USD mua chip Nvidia, nơi thì vay các quỹ đầu tư mạo hiểm để làm điều tương tự, nâng cấp quy mô cơ sở hạ tầng đám mây toàn cầu để phục vụ cho cuộc chạy đua AI.
Tuy nhiên, cùng lúc, Microsoft, Meta, Google hay Amazon cũng đều đang muốn tự phát triển
chip xử lý cũng như huấn luyện AI riêng của họ. Tréo ngoe bắt đầu xuất hiện, khi những đối tác và khách hàng lớn nhất của Nvidia lại đang chính là đối thủ cạnh tranh của họ. Microsoft có Maia 100. Google có TPUv6. Amazon có AWS Inferentia, rồi Intel có Gaudi3 hay AMD có Instinct MI250, v.v…
Rồi DeepSeek đã vô tình khiến cả thị trường hoảng loạn khi họ phá vỡ được lối tư duy định hình cuộc chạy đua AI diễn ra trong hơn hai năm qua.
Lo ngại lớn nhất của các nhà đầu tư chính là việc, nếu những gì các kỹ sư của DeepSeek nói là sự thật, thì cách huấn luyện và phát triển AI hiệu quả và với chi phí thấp hơn các startup và tập đoàn phương Tây hoàn toàn có thể thay đổi hoàn toàn tình hình hiện tại. Tình hình giờ là gì? Là những hệ thống mô hình AI phức tạp nhất luôn cần hàng nghìn, thậm chí hàng vạn GPU Nvidia để huấn luyện.
Và như đã nói, cách nghĩ và cách làm việc như vậy đã tạo ra nhu cầu khủng khiếp của cả ngành. Nvidia sản xuất GPU không đủ bán, còn các tập đoàn công nghệ lớn nhất hành tinh thì vẫn chấp nhận để ra hàng chục tỷ USD gọi là kinh phí capital expenditure để đầu tư cho những hệ thống siêu máy tính AI.
Về phần Nvidia, bất chấp việc DeepSeek vô tình khiến họ bị thổi bay vài trăm tỷ USD giá trị vốn hoá, họ vẫn đưa ra tuyên bố hôm thứ 2, nói rằng những tiến bộ mà DeepSeek có được là một ví dụ xuất sắc mô tả cách con người tìm ra những giải pháp mới để vận hành những mô hình AI. Nhưng cùng lúc, để cứu vãn tình hình, Nvidia vẫn khẳng định rằng, nghiên cứu là một chuyện, vận hành AI phục vụ cho hàng triệu người dùng vẫn cần tới một số lượng khổng lồ chip xử lý máy chủ.
Bên cạnh việc khiến cả thị trường hoài nghi về xu hướng càng nhiều GPU thì AI càng khoẻ, DeepSeek R1 hay V3 thậm chí còn có thể tạo ra những lo ngại mới, chẳng hạn như những cuộc điều tra của chính quyền Mỹ về việc Nvidia bán chip xử lý máy chủ cho Trung Quốc. Nhưng hiện giờ có lẽ sẽ không có chuyện gì xảy ra với Nvidia, vì DeepSeek cho biết, những con chip mà họ sử dụng trong hệ thống máy chủ huấn luyện R1 và V3 được đặt mua đúng luật, đúng thời điểm và đúng phiên bản Nvidia dành riêng cho thị trường Trung Quốc.
Các nhà phân tích thị trường của ngân hàng đầu tư Morgan Stanley hôm thứ 3 đưa ra dự đoán rằng, trong vòng 12 tháng qua, tại thị trường Trung Quốc, Nvidia đã thu về 10 tỷ USD doanh thu từ những con chip họ phát triển riêng cho thị trường này. Cùng lúc, họ cũng dự đoán rằng, với những gì DeepSeek thể hiện, chính phủ Mỹ nhiều khả năng sẽ có động thái phản ứng, dưới dạng những quy chế cấm vận mới, thắt chặt mạnh tay hơn.
Điều rõ ràng nhất, theo các nhà phân tích của Morgan Stanley, mọi nỗ lực cấm vận và kiểm soát bán dẫn của phía Mỹ gần như không có tác dụng kiềm chế tốc độ nghiên cứu phát triển AI của Trung Quốc, với bằng chứng là R1.
Có một vài giám đốc trong ngành bán dẫn đưa ra quan điểm cho rằng, thành tựu của DeepSeek, tạo ra AI với chi phí thấp hơn có thể sẽ là món quà, là lợi thế cho Nvidia, thay vì là một lời nguyền ảnh hưởng tới tăng trưởng doanh thu trong tương lai, khi cả ngành phải tìm cách tạo ra những giải pháp hiệu quả và chi phí thấp hơn.
Jonathan Ross, CEO startup Groq đưa ra quan điểm cho rằng, khi thực hiện quá trình nội suy, vận hành thương mại hoá một mô hình AI, chi phí nội suy càng thấp thì độ phủ của dịch vụ sẽ càng cao: “Nếu chi phí nội suy quá cao, mọi người sẽ không dám dùng chúng. Không phải tự nhiên quá trình huấn luyện và nội suy là một chu kỳ không bao giờ dừng lại.” Ý của anh Ross là, chỉ khi độ phủ của AI và tần suất sử dụng càng lúc càng cao, thì các nhà phát triển mới chịu đầu tư để tìm ra cách huấn luyện những mô hình tốt hơn.
Đến lúc này chúng ta có thể viện dẫn một lý thuyết có tên là nghịch lý Jevons trong kinh tế học. Nghịch lý này khẳng định rằng, khi những tiến bộ khoa học kỹ thuật khiến tài nguyên trở nên rẻ và dồi dào hơn, thì việc tiêu thụ những tài nguyên ấy sẽ tăng vọt.
Akash Bajwa tại quỹ đầu tư Earlybird Venture Capital ở London, Anh Quốc cho rằng: “Luôn luôn có nhu cầu nội suy AI ở nhiều ngành nghề, nhưng chi phí để vận hành những tác vụ nội suy AI mà các đơn vị hàng đầu thế giới báo giá cho các ngành lại quá cao so với lợi ích mà những tác vụ đem lại cho các doanh nghiệp và tổ chức.” Nói cách khác, những cái tên như DeepSeek hoàn toàn có thể giúp giảm chi phí, từ đó kích cầu.
Đó là khẳng định của các nhà phân tích thị trường, kể cả khi DeepSeek tìm ra cách giải quyết bài toán chi phí huấn luyện mô hình AI. Cụ thể hơn, mô hình R1 của startup Trung Quốc này ứng dụng những giải pháp kỹ thuật yêu cầu tài nguyên điện toán rất lớn để tạo ra những câu trả lời ở từng bước trong cuộc trò chuyện với người dùng.
Cùng lúc, đã có những người đặt ra những nghi vấn và giả thuyết, đó là DeepSeek buộc phải giấu những hệ thống và tổng công suất hiệu năng xử lý của máy chủ đám mây dùng để nghiên cứu và huấn luyện V3 hay R1, đơn giản vì họ đã có những động thái lách luật hoặc vi phạm quy định để hoàn thành công việc. Ví dụ dễ nhận thấy nhất là Microsoft đã mở cuộc điều tra để xác định xem liệu DeepSeek có thu thập một cách trái phép dữ liệu huấn luyện AI của OpenAI hay không.
Một nghi vấn khác là DeepSeek có thể đã thuê máy chủ đám mây ở những quốc gia khác để qua mặt lệnh cấm vận của Mỹ, không cho Nvidia bán những sản phẩm mạnh nhất của họ hiện giờ như H200 sang Trung Quốc. Những ngày cuối cùng của chính quyền tổng thống Joe Biden, bộ thương mại Mỹ đã có động thái đóng lại những lỗ hổng cho phép phía Trung Quốc làm như vậy, bằng cách cấm vận cả trăm đơn vị và doanh nghiệp được cho là có liên quan tới nỗ lực nghiên cứu phát triển AI của Trung Quốc.
Còn trong khi đó, nếu như những thành tựu tiết kiệm chi phí mà DeepSeek có được đến từ quy trình huấn luyện AI, thì cả thế giới cũng đã thay đổi. Thị trường AI toàn cầu giờ đang chuyển dịch việc sử dụng những hệ thống data center khổng lồ từ chỗ huấn luyện mô hình mới sang ứng dụng những mô hình ấy để thực hiện nội suy phục vụ các dịch vụ trực tuyến hay những API phục vụ môi trường doanh nghiệp.
Năm ngoái, Nvidia cho biết, doanh thu từ mảng chip phục vụ trung tâm dữ liệu của họ có tỷ trọng 40% đến từ những hệ thống nội suy AI phục vụ các dịch vụ trực tuyến. Để vận hành một mô hình AI mượt mà cho hàng chục, hàng trăm triệu người trên toàn thế giới vẫn cần nguồn tài nguyên điện toán khổng lồ, thứ mà chính DeepSeek hiện giờ đang gặp khó khăn khi danh tiếng của ứng dụng đang bùng nổ.
Stacy Rasgon, nhà phân tích thị trường bán dẫn tại Bernstein Research cho rằng: “Tôi hiểu sự lo lắng của các nhà đầu tư khi DeepSeek gây ra nguy cơ giảm nhu cầu chip xử lý, hoặc khiến các khách hàng cân nhắc lại chiến lược ứng dụng sản phẩm AI ở tầm ngắn hạn. Nhưng kể cả khi hai điều đó trở thành hiện thực, thì khoản tiền đầu tư ở tầm ngắn hạn vẫn sẽ tăng.”
Theo The Wall Street Journal Nguồn:tinhte.vn/thread/rot-cuoc-deepseek-co-dang-de-doa-doanh-thu-chip-ai-cua-nvidia.3953686/