Sam Altman trêu chọc quy mô GPU 100 triệu cho Openai có thể tiêu tốn 3 nghìn tỷ đô la
Giám đốc điều hành OpenAI, Sam Altman, vừa công bố trên X rằng OpenAI dự kiến sẽ đưa "hơn 1 triệu GPU vào hoạt động" vào cuối năm nay. Đây là một con số ấn tượng, trong khi xAI của Elon Musk, với mô hình Grok 4, chỉ chạy trên khoảng 200.000 GPU Nvidia H100.
OpenAI sẽ có sức mạnh gấp năm lần, nhưng Altman vẫn cảm thấy chưa đủ cho tương lai. Ông viết: “Rất tự hào về đội ngũ... nhưng giờ họ cần làm việc để tăng gấp 100 lần sức mạnh đó.” Dự kiến đến cuối năm nay, chúng tôi sẽ có hơn 1 triệu GPU hoạt động. Mặc dù có vẻ như ông đang đùa với "lol", nhưng thành tích của Altman cho thấy điều ngược lại.
Vào tháng 2, ông đã thừa nhận rằng OpenAI phải trì hoãn việc phát hành GPT-4.5 vì họ thực sự "hết GPU". Đây không chỉ là một trục trặc nhỏ mà là một lời cảnh tỉnh, đặc biệt là khi Nvidia cũng đã hết hàng cho đến năm sau với phần cứng AI hàng đầu. Kể từ đó, Altman đã ưu tiên mở rộng khả năng tính toán, theo đuổi các đối tác và dự án hạ tầng giống như các hoạt động quy mô quốc gia hơn là nâng cấp CNTT doanh nghiệp.
Khi OpenAI đạt mốc 1 triệu GPU vào cuối năm nay, đây không chỉ là một tuyên bố trên mạng xã hội mà còn khẳng định vị thế là người tiêu thụ tính toán AI lớn nhất thế giới. Để đạt mục tiêu 100x, cần khoảng 100 triệu GPU, với chi phí ước tính khoảng 3 nghìn tỷ đô la, gần bằng GDP của Vương quốc Anh, chưa kể đến yêu cầu về năng lượng và cơ sở hạ tầng dữ liệu cần thiết.
Nvidia khó có thể sản xuất nhiều chip như vậy trong thời gian gần, chưa nói đến việc đáp ứng yêu cầu năng lượng cho chúng. Tuy nhiên, đó là cách suy nghĩ táo bạo của Altman. Nó không chỉ là về mục tiêu cụ thể mà còn là xây dựng nền tảng cho trí tuệ nhân tạo tổng quát (AGI), có thể là chip tùy chỉnh, kiến trúc mới lạ, hoặc điều gì đó chưa từng thấy.
OpenAI rõ ràng muốn tìm hiểu. Elon Musk xác nhận xAI đang mua một nhà máy điện ở nước ngoài và sẽ chuyển toàn bộ về Mỹ. Nvidia đang xây dựng 100 nhà máy AI, bắt đầu một kế hoạch 50 năm của Jensen. xAI của Elon Musk dự kiến sẽ lỗ 13 tỷ USD vào năm 2025. Bằng chứng lớn nhất là trung tâm dữ liệu của OpenAI ở Texas, hiện là cơ sở đơn lẻ lớn nhất thế giới, tiêu thụ khoảng 300 MW—đủ để cung cấp năng lượng cho một thành phố vừa—và dự kiến sẽ đạt 1 gigawatt vào giữa năm 2026.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Nhu cầu năng lượng lớn và khó lường đang gây lo ngại cho các nhà điều hành lưới điện Texas, họ cảnh báo rằng việc ổn định điện áp và tần số cho một cơ sở quy mô như vậy cần những cải tiến cơ sở hạ tầng tốn kém và nhanh chóng mà ngay cả các công ty tiện ích tiểu bang cũng khó đáp ứng. Dù vậy, đổi mới phải được ưu tiên, và bong bóng không nên vỡ. Số liệu thú vị: 100 triệu GPU × 30,000 USD mỗi GPU = 3 triệu tỷ USD. Ngày 20 tháng 7 năm 2025, công ty không chỉ tích trữ phần cứng NVIDIA.
Mặc dù Azure của Microsoft vẫn là nền tảng đám mây chính, OpenAI đã hợp tác với Oracle để xây dựng trung tâm dữ liệu riêng và đang xem xét các bộ gia tốc TPU của Google để đa dạng hóa khả năng tính toán. Điều này nằm trong một cuộc đua công nghệ, nơi các công ty như Meta và Amazon cũng đang phát triển chip AI riêng và đầu tư mạnh vào bộ nhớ băng thông cao HBM để hỗ trợ các mô hình lớn. Altman cũng đã gợi ý về kế hoạch chip tùy chỉnh của OpenAI, điều này hợp lý với quy mô ngày càng tăng của công ty.
Những bình luận của Altman nhắc nhở về sự nhanh chóng của lĩnh vực này. Một năm trước, một công ty sở hữu 10.000 GPU được coi là ứng cử viên nặng ký. Giờ đây, ngay cả 1 triệu GPU cũng chỉ là một bước đệm hướng tới điều lớn lao hơn. Sự đầu tư vào hạ tầng của OpenAI không chỉ nhằm đào tạo nhanh hơn hay triển khai mô hình mượt mà hơn, mà còn là để đảm bảo lợi thế lâu dài trong ngành mà tính toán là yếu tố quyết định.
Nvidia sẵn sàng cung cấp các thành phần cần thiết. Liệu 100 triệu GPU có khả thi không? Hiện tại thì không, trừ khi có những đột phá trong sản xuất, hiệu suất năng lượng và chi phí. Tuy nhiên, tầm nhìn của Altman không bị giới hạn bởi những gì hiện có mà hướng tới những gì có thể xảy ra trong tương lai. Một triệu GPU sẽ được đưa vào sử dụng trước cuối năm, đánh dấu một nền tảng mới cho hạ tầng AI, ngày càng đa dạng hơn.
Mọi thứ ngoài điều đó là tham vọng, và nếu dựa vào lịch sử của Altman, việc coi đó chỉ là sự phóng đại có thể là sai lầm. Hãy theo dõi Toms Hardware trên Google News để cập nhật tin tức, phân tích và đánh giá mới nhất. Nhớ nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year