Như vậy là Computex 2025, sự kiện triển lãm công nghệ máy tính cá nhân và điện toán chung lớn nhất thế giới hiện giờ đã được khai mạc, với keynote của Nvidia vào lúc 11h sáng nay theo giờ Việt Nam. Tại đây, CEO Jensen Huang đã có những công bố và thông tin mới về những hệ thống máy chủ AI, hệ thống máy tính cá nhân chuyên biệt xử lý AI, cũng như những công nghệ mới và cả định hướng của tập đoàn. Nvidia Blackwell GB10: DGX Spark Thực tế hệ thống này đã được Nvidia công bố từ ngay đầu năm nay tại hội chợ điện tử tiêu dùng, CES, diễn ra thường niên tại Vegas, Mỹ những ngày đầu tháng 1 vừa qua dưới hình dạng Project DIGITS, một cỗ máy siêu nhỏ gọn, không khác gì một chiếc Mac mini M4 nhưng với sức mạnh xử lý AI local rất mạnh. Rồi sau đó tại sự kiện GTC 2025 hồi tháng 3, Blackwell GB10 lại được công bố phiên bản thương mại. Và tại Computex 2025, DGX Spark và DGX Station đã chính thức được bán ra thị trường, theo tuyên bố của ông Huang. GTC 2025: Chi tiết Blackwell Ultra GB300, cùng 2 thế hệ GPU AI mới của Nvidia, Vera Rubin và Feynman Ba thế hệ GPU máy chủ đám mây phục vụ cho toàn bộ ngành công nghiệp AI toàn cầu đã được Nvidia giới thiệu tại sự kiện GTC 2025. Anh em hãy cùng mình lần lượt điểm qua những gì CEO Jensen Huang đã công bố tại keynote trong khuôn khổ sự kiện dành... tinhte.vn Chiếc máy DGX Spark, giá 3000 USD được thiết kế dành cho các nhà nghiên cứu AI, nhà khoa học dữ liệu và sinh viên. Thiết bị này là một hướng đi mới để mang AI dễ dàng tiếp cận với những người có nhu cầu cần nó với một mức giá phù hợp nhưng mang lại một khả năng tính toán thường chỉ có ở các trung tâm dữ liệu quy mô lớn. CEO Jensen Huang coi đây là một bước tiến lớn khi ông kỳ vọng rằng thiết bị sẽ thúc đẩy đổi mới trong các lĩnh vực như robot, hệ thống tự hành và AI tạo sinh bằng cách cung cấp tài nguyên tính toán mạnh mẽ nhưng dễ tiếp cận cho nhóm đối tượng trên. Nvidia DGX Spark được trang bị chip xử lý GB10, kết hợp CPU Grace và GPU kiến trúc Blackwell của Nvidia, được tối ưu hóa hiệu suất và tiết kiệm năng lượng. Bộ xử lý này giúp thiết bị đạt được hiệu suất lên đến 1 petaflop ở độ chính xác FP4, cho phép xử lý các tác vụ AI quy mô lớn như huấn luyện và tinh chỉnh mô hình. Với hiệu suất này, Nvidia DGX Spark có thể chạy các mô hình trí tuệ nhân tạo có quy mô lên đến 200 tỷ tham số. Đối với các trọng số kích thước lớn hơn, hai thiết bị kết nối với nhau có thể hỗ trợ mô hình lên đến 405 tỷ tham số. Hiệu suất này giúp Nvidia DGX Spark vượt xa các máy tính để bàn thông thường, gần như mạnh hơn 1.000 lần so với hiệu năng trung bình mà những chiếc laptop tạo ra. Nvidia Blackwell Ultra GB300: DGX Station Sản phẩm “máy tính để bàn” thứ hai chuyên biệt cho nhu cầu xử lý AI được công bố ở Computex 2025 là thứ được CEO Jensen Huang gọi bằng cái tên DGX Station. Trên bo mạch chủ của chiếc máy tính để bàn này sẽ là một chip GB300 Blackwell Ultra đơn lẻ, kết hợp với CPU Grace, tổng cộng 784GB bộ nhớ thống nhất để cả CPU lẫn GPU vận hành, networking băng thông 800 Gbps. Với bo mạch được trang bị trong hệ thống desktop dành cho các nhà phát triển và các nhà khoa học nghiên cứu AI này, Nvidia khẳng định hệ thống này tạo ra được hiệu năng xử lý AI 20 petaflops. DGX Station có thể hoạt động như một máy tính để bàn riêng cho một người dùng chạy các mô hình AI tiên tiến bằng dữ liệu cục bộ, hoặc như một node điện toán tập trung, vận hành theo yêu cầu cho nhiều người dùng. Hệ thống hỗ trợ công nghệ GPU Nvidia Multi-Instance để phân vùng thành tối đa bảy luồng xử lý, mỗi luồng đều có bộ nhớ băng thông cao, bộ nhớ đệm và lõi tính toán riêng, hoạt động như một máy chủ đám mây cá nhân cho các nhóm kỹ sư và nhà khoa học, phục vụ phát triển khoa học dữ liệu và AI. Dự kiến cuối năm nay, Nvidia DGX Station sẽ bán ra thị trường với các sản phẩm do Asus, Dell, Gigabyte, HP và MSI lắp ráp phiên bản thương mại. Mức giá có thể dao động từ 70 đến 90 nghìn USD tùy phiên bản bộ nhớ HBM, dựa trên chi phí mà các nhà khoa học và nghiên cứu AI cần bỏ ra để sở hữu những hệ thống DGX Station thế hệ cũ, kiến trúc Ampere và Hopper. Máy chủ RTX PRO với card RTX PRO 6000 Blackwell RTX PRO 6000 Blackwell là GPU trung tâm dữ liệu ở phân khúc phổ thông để cung cấp năng lượng cho các nhà máy AI và tăng tốc khối lượng công việc AI doanh nghiệp đòi hỏi khắt khe, từ suy luận AI đa phương thức và AI vật lý đến thiết kế, điện toán khoa học, đồ họa và ứng dụng video. Máy chủ Nvidia RTX PRO từ các đối tác hệ thống toàn cầu có thể hỗ trợ tối đa tám GPU Nvidia RTX PRO 6000 Blackwell, được trang bị chip xử lý dữ liệu mạng (DPU) Nvidia BlueField-3 và cầu nối Nvidia ConnectX-8 SuperNIC, cùng với các switch PCIe Gen 6 tích hợp. Các doanh nghiệp có thể tăng tốc khối lượng tác vụ xử lý AI và khoa học dữ liệu trên máy chủ trang bị GPU RTX PRO với nền tảng phần mềm NVIDIA AI Enterprise. Các nhà phát triển có thể tối ưu hóa hiệu suất suy luận AI và độ chính xác của tác nhân với các dịch vụ vi mô Nvidia NIM và NeMo, đồng thời sử dụng Nvidia AI Blueprints mới nhất cho con người kỹ thuật số và công cụ truy vấn AI. Nvidia RTX 5060 8GB chính thức ra mắt GPU GB206 trên bo mạch của RTX 5060 trang bị tổng cộng 3840 nhân CUDA kiến trúc Blackwell, tức là nhiều hơn 25% so với tổng số 3072 nhân CUDA kiến trúc Ada Lovelace trên RTX 4060. Dù vẫn là 8GB VRAM, nhưng công nghệ chip nhớ trên RTX 5060 được nâng cấp lên thế hệ GDDR7, khi kết hợp với bus interface 128-bit, tạo ra băng thông bộ nhớ 448 GB/s, thay vì 272 GB/s của RTX 4060. Nvidia kỳ vọng con số này sẽ giúp giải quyết vấn đề cố hữu của những mẫu card đồ họa với 8GB VRAM, đánh đổi dung lượng bằng băng thông bộ nhớ, từ đó tối ưu hiệu năng dưới dạng tốc độ khung hình chơi game. GB206 có diện tích 181 mm vuông, trên bề mặt là 21.9 tỷ transistor. Không giống như GB206 trên RTX 5060 Ti 16GB, GB206 của RTX 5060 bị vô hiệu hóa một số shader, nên từ 4608 nhân CUDA chỉ còn 3840 nhân, chia thành 120 đơn vị TMU (texture mapping unit), 48 ROPs, 120 nhân tensor thế hệ thứ 5 và 30 nhân tăng tốc ray tracing thế hệ thứ 4. Đối với thông số kỹ thuật cơ bản, RTX 5060 sẽ vận hành ở xung nhịp gốc 2.280 MHz, xung nhịp boost khi chơi game tăng lên 2.497 MHz, bộ nhớ GDDR7 vận hành ở xung nhịp 1.750 MHz, tạo ra băng thông 28 Gbps. Mục tiêu là với DLSS 4, kết hợp với Multi Frame Generation, RTX 5060 sẽ tạo ra trên 100 FPS hay thậm chí là 200 FPS ở độ phân giải 1080p. Mức giá 299 USD tại thị trường phương Tây dự kiến sẽ tương đương với mức giá chừng 9 triệu Đồng cho RTX 5060 tại thị trường Việt Nam, với các phiên bản từ các hãng như Asus, Gigabyte hay MSI... Chơi điện tử với GeForce RTX 5060: Nếu còn đang dùng 3060 và 3060 Ti, có lẽ nâng cấp được rồi Thiết nghĩ không nên gọi bài viết này là một bài review sản phẩm card đồ họa tầm trung mới ra mắt của Nvidia, vì tính ra có hai vấn đề cần nói ngay với anh em. Thứ nhất, ngày 19/5 tới, Nvidia GeForce RTX 5060 mới chính thức ra mắt thị trường, với... tinhte.vn Lắp ráp siêu máy tính AI ở Đài Loan Jensen Huang, tái khẳng định cam kết của mình đối với khu vực Đài Loan như một trung tâm công nghệ toàn cầu. Tại Computex 2025, ông đã thông báo về việc xây dựng một cơ sở mới tại địa phương ở Taipei và một siêu máy tính trí tuệ nhân tạo sẽ sử dụng hàng ngàn chip xử lý máy chủ của công ty. Tại Computex, ông Huang đã ca ngợi Đài Loan là "khu vực sản xuất điện tử lớn nhất thế giới" và là "trung tâm của hệ sinh thái máy tính". Công ty con của Foxconn, Big Innovation Company, sẽ hợp tác với Nvidia và chính quyền Đài Loan để xây dựng một siêu máy tính AI sử dụng 10.000 chip Blackwell mới nhất của Nvidia, phục vụ cho hệ sinh thái công nghệ của Đài Loan. Khoản đầu tư này dự kiến sẽ lên tới hàng trăm triệu USD, dựa trên ước tính chi phí của mỗi chip AI thế hệ mới của Nvidia. Các khách hàng của họ sẽ bao gồm TSMC, đối tác sản xuất chủ chốt của Nvidia, sẽ sử dụng nó để nghiên cứu và phát triển các quy trình chế tạo chip mới. "Chúng tôi đang mở rộng vượt ra ngoài giới hạn văn phòng hiện tại của mình ở Đài Loan", ông Huang nói, đồng thời tiết lộ một video về tàu vũ trụ tương lai hạ cánh và biến đổi thành thiết kế tòa nhà được đặt tên là "Constellation" của công ty, dự kiến bắt đầu khởi công xây dựng sớm ở quận Beitou, Đài Bắc. Kế hoạch này phản ánh xu hướng chi tiêu rộng lớn hơn của Nvidia, hiện là một công ty trị giá 3 nghìn tỷ USD chỉ trong vài năm ngắn ngủi. Ví dụ, ông Huang đã cam kết chi tới 500 tỷ USD trong vòng bốn năm tới cho cơ sở hạ tầng AI ở Mỹ với các đối tác bao gồm TSMC, Foxconn và Wistron của Đài Loan. Tuy nhiên, việc chuyển đổi sản xuất công nghệ cao sang Mỹ sẽ mất nhiều năm, và trong một video trình diễn ngắn, ông Huang giải thích cách nhiều công ty công nghệ cao sản xuất chip mới nhất của Nvidia, phần lớn quy trình được đặt tại Đài Loan. Khi được hỏi về khả năng Nvidia sẽ chế tạo một chip mới cho Trung Quốc tuân thủ các biện pháp kiểm soát xuất khẩu mới nhất, ông Huang nói rằng công ty đang “đánh giá cách tốt nhất để giải quyết vấn đề của thị trường Trung Quốc”, nhưng không có thêm bất kỳ sửa đổi nào đối với H20 là khả thi. Công ty đã xem xét cách họ có thể thiết kế lại chip của mình để tiếp tục bán chúng ở Trung Quốc đồng thời tuân thủ các biện pháp kiểm soát của Mỹ. Tờ Financial Times đưa tin tuần trước rằng Nvidia đang lên kế hoạch xây dựng một cơ sở nghiên cứu mới ở Thượng Hải như một dấu hiệu cho thấy cam kết của công ty đối với đất nước này. Ông Huang nói thêm rằng không có "bất kỳ bằng chứng nào về việc chuyển hướng nguồn cung chip AI" của Nvidia sang Trung Quốc, đây là mối quan ngại đã thúc đẩy các nhà lập pháp Mỹ gửi thư đến công ty vào tháng trước. DGX Cloud Lepton: Chia sẻ tài nguyên AI đám mây Nvidia, mặc dù được coi là cái tên tương đối mới trong lĩnh vực điện toán đám mây, nhưng đang nhanh chóng có được động lực tăng trưởng. Tại Computex 2025, họ đã công bố dịch vụ mới cho phép các chip AI của mình khả dụng trên nhiều nền tảng đám mây khác nhau, mở rộng phạm vi tiếp cận vượt ra ngoài các nhà cung cấp dịch vụ đám mây lớn. Dịch vụ, có tên là DGX Cloud Lepton, được thiết kế để kết nối các nhà phát triển trí tuệ nhân tạo với mạng lưới các nhà cung cấp dịch vụ đám mây của Nvidia, những người cung cấp quyền truy cập máy chủ với GPU AI của Nvidia. Một số đối tác nhà cung cấp dịch vụ đám mây của Nvidia bao gồm CoreWeave, Lambda và Crusoe. "Nvidia DGX Cloud Lepton kết nối mạng lưới các nhà cung cấp dịch vụ GPU toàn cầu của chúng tôi với các nhà phát triển AI," ông Jensen Huang nói. Nvidia dự kiến các nhà cung cấp dịch vụ đám mây hàng đầu thế giới hiện tại cũng sẽ tham gia sáng kiến DGX Cloud Lepton. Động thái này giúp chip của Nvidia dễ dàng tiếp cận hơn với các nhà phát triển thuộc mọi tầng lớp và quy mô đơn vị, doanh nghiệp. "Chúng tôi nhận thấy rằng có rất nhiều trở ngại trong hệ thống đối với các nhà phát triển AI, dù họ là nhà nghiên cứu hay làm việc tại một doanh nghiệp, để tìm và truy cập tài nguyên tính toán," bà Alexis Bjorlin, phó chủ tịch DGX Cloud của Nvidia cho biết. Kể từ khi "thời kỳ bùng nổ" AI bắt đầu vào cuối năm 2022, GPU của Nvidia đã trở thành một mặt hàng được tất cả săn đón. Các nhà cung cấp dịch vụ đám mây đang chạy đua để mua chip nhằm hỗ trợ cả khách hàng và các nỗ lực phát triển và kinh doanh AI nội bộ của họ. Tuy nhiên, luôn có khả năng các nhà cung cấp dịch vụ đám mây, bao gồm cả những cái tên như CoreWeave, có thể có GPU trong máy chủ nhưng không được sử dụng. Đó là lúc Lepton phát huy tác dụng, bà Bjorlin nói, vì nó cho phép các nhà cung cấp thông báo với các nhà phát triển rằng họ có thêm tài nguyên điện toán cho AI. Nvidia sẽ tiếp cận trực tiếp các nhà phát triển, thay vì thông qua các đối tác nhà cung cấp dịch vụ đám mây của mình. Loại hình liên hệ trực tiếp này thúc đẩy mục tiêu của Nvidia trong việc xây dựng doanh nghiệp với các doanh nghiệp, chứ không chỉ các phòng thí nghiệm AI, theo nhà phân tích Mario Morales của International Data Corp. Một lợi ích khác khi làm việc trực tiếp với Nvidia là các nhà phát triển có thể chọn nhà cung cấp dịch vụ đám mây AI nào để làm việc hoặc chọn làm việc với nhiều nhà cung cấp dịch vụ đám mây, bà Bjorlin của Nvidia cho biết. "Việc lựa chọn thuộc về nhà phát triển," bà Bjorlin nói thêm. "Nvidia không can thiệp vào con đường đó." Bán công nghệ kết nối chip để tăng tốc độ phát triển AI Cuối cùng nhưng không kém phần quan trọng, Nvidia thông báo rằng công ty có kế hoạch bán một công nghệ cho các bên khác, giúp kết nối các chip lại với nhau để tăng tốc độ giao tiếp giữa chúng, điều cần thiết để xây dựng và triển khai các máy chủ huấn luyện và vận hành các công cụ trí tuệ nhân tạo. Nvidia đã ra mắt phiên bản mới của công nghệ NVLink của mình, được gọi là NVLink Fusion, tại keynote khai mạc Computex 2025. Công ty sẽ bán công nghệ này cho các nhà thiết kế chip khác để giúp họ xây dựng các hệ thống AI tùy chỉnh mạnh mẽ với nhiều chip được kết nối lại với nhau. Marvell Technology và MediaTek đã cho biết họ có kế hoạch áp dụng công nghệ NVLink Fusion cho các nỗ lực thiết kế chip tùy chỉnh của họ. Nvidia đã phát triển NVLink từ nhiều năm trước, và nó được sử dụng để trao đổi lượng dữ liệu khổng lồ giữa các chip khác nhau, chẳng hạn như trong hệ thống NVL trang bị chip GB200 của công ty, kết hợp hai die GPU xử lý Blackwell với một chip CPU Grace. Ngoài việc sản xuất công nghệ mới, ông Huang cũng công bố kế hoạch xây dựng trụ sở chính của Nvidia ở Đài Loan, nằm ở ngoại ô phía bắc của Taipei. Bài phát biểu quan trọng của ông Huang thảo luận về lịch sử của Nvidia trong việc xây dựng các chip và hệ thống AI, cũng như phần mềm mà công ty đã phát triển để hỗ trợ chúng. Ông Huang nhận xét rằng tại một thời điểm, các bài thuyết trình của ông thường dành 90% thời gian cho các chip đồ họa của công ty, nhưng điều đó đã thay đổi. Bây giờ, Nvidia đã vượt xa nguồn gốc là nhà sản xuất chip đồ họa game để trở thành nhà sản xuất hàng đầu các chip hỗ trợ cho cơn sốt AI, thứ đã bao trùm toàn ngành công nghệ kể từ khi ChatGPT ra mắt vào năm 2022. Nvidia được cho là đang thiết kế các CPU máy tính cá nhân, có thể chạy hệ điều hành Windows của Microsoft và sử dụng công nghệ kiến trúc tập lệnh của ARM, Reuters đã từng đưa tin. Tại hội nghị nhà phát triển thường niên của công ty vào tháng 3, ông Huang phác thảo cách Nvidia sẽ định vị mình để giải quyết sự thay đổi trong nhu cầu tính toán từ việc xây dựng các mô hình AI lớn sang chạy các ứng dụng dựa trên chúng.