AMD cho biết Instinct MI300X, chip mạnh nhất dùng để huấn luyện AI của hãng, có hiệu năng gấp 1,6 lần so với H100.
Instinct MI300X, được ra mắt lần đầu tiên vào tháng 6 và chính thức được giới thiệu tại sự kiện Advancing AI tại San Jose, California vào ngày 6/12, là dòng sản phẩm hướng đến các hệ thống huấn luyện AI. Trong sự kiện, AMD đã đưa ra tuyên bố về việc mẫu chip của Nvidia là đối thủ chính của Instinct MI300X.
Instinct MI300X của AMD được coi là đỉnh cao về phương pháp thiết kế chiplet mới nhất cho GPU, kết hợp tám ngăn xếp bộ nhớ HBM3 12Hi với tám chiplet GPU 5nm CDNA 3 dạng XCD 3D. Công nghệ lai 3,5D này mang đến công suất 750W, 304 đơn vị tính toán, dung lượng HBM3 192GB và băng thông 5,3TB/s.
AMD mới công bố chip AI Instinct MI300X mạnh mẽ với tốc độ cao hơn 60% so với Nvidia H100. Với thiết kế 8 phân vùng xử lý riêng và kết nối Infinity Fabric, Instinct MI300X có băng thông tốc độ lên đến 896GB/s và hiệu suất 10,4 Petaflop mỗi giây.
Theo thông cáo từ AMD, Instinct MI300X có dung lượng bộ nhớ lớn hơn 2,4 lần và hiệu suất tính toán vượt trội 1,3 lần so với H100 - một trong những chip AI được sử dụng phổ biến trong các ứng dụng AI gần đây, bao gồm GPT-4 của OpenAI. Dung lượng bộ nhớ lớn giúp tăng cường hiệu suất tính toán bằng cách xử lý nhiều dữ liệu đồng thời.
Khi thử nghiệm với các mô hình ngôn ngữ lớn, Instinct MI300X đánh bại các đối thủ từ Nvidia một cách vượt trội. Với Llama 2 70B (70 tỷ tham số) và FlashAttention 2, chip AMD của MI300X hiệu suất nhanh hơn 20% so với các sản phẩm cùng loại khi so sánh 1v1. Đáng chú ý hơn, khi chạy trên Llama 2 70B, MI300X mạnh hơn 40% so với H100 khi kết hợp 8v8 (8v8 Server), và lên đến 60% so với H100 khi chạy trên Bloom 176B (176 tỷ tham số).
AMD announced its new AI Instinct MI300X chip, which is 60% more powerful than Nvidia H100.
AMD đặt trọng điểm vào việc các hiệu suất đào tạo của Instinct MI300X ngang hàng với H100, nhưng với mức giá cạnh tranh hơn khi xét với cùng một khối lượng công việc. Tuy nhiên, giá chính thức của sản phẩm vẫn chưa được công bố.
Instinct MI300X không phải là GPU mạnh nhất, mặc dù có thông số ấn tượng. Vào giữa tháng 11, Nvidia công bố sản phẩm mới H200 với hiệu suất gấp đôi so với H100.
AMD đã ra mắt bộ xử lý tăng tốc APU Instinct MI300A, dành cho trung tâm dữ liệu, cùng với Instinct MI300X. Chip này sử dụng kỹ thuật đóng gói 3,5D từ TSMC, kết hợp hai tiến trình 5 nm và 6 nm với 13 chiplet, tạo ra một chip 24 lõi chứa 53 tỷ bóng bán dẫn - chip lớn nhất từ AMD cho đến thời điểm hiện tại. Giá sản phẩm vẫn chưa được công bố.
CEO AMD Lisa Su cho biết sự quan tâm đang tập trung vào chip AI, với mục tiêu cải thiện trải nghiệm người dùng. Chip của họ sẽ giúp cho việc tìm kiếm thông tin trở nên đơn giản hơn và nhanh chóng, đặc biệt là khi câu hỏi trở nên phức tạp.
AMD announced its new AI Instinct MI300X chip, which is 60% more powerful than Nvidia's H100. The image below shows the AMD chip.
Trong một thông báo gần đây, Meta và Microsoft đã tiết lộ kế hoạch mua Instinct MI300X để thay thế cho chip Nvidia. Đại diện của Meta đã nói về việc trang bị MI300X vào các hệ thống trí tuệ nhân tạo để thực hiện các nhiệm vụ như xử lý nhãn dán AI, chỉnh sửa hình ảnh và vận hành trợ lý ảo. Ông Kevin Scott, CTO của Microsoft, cũng đã công bố dự định sử dụng chip của AMD cho máy chủ đám mây Azure. OpenAI cũng sẽ sử dụng MI300X cho hệ thống xử lý phần mềm Triton, một mô hình quan trọng được sử dụng trong nghiên cứu AI.
AMD dự báo doanh thu GPU cho trung tâm dữ liệu của họ sẽ đạt khoảng 2 tỷ USD vào năm 2024. Công ty cũng ước tính tổng giá trị thị trường GPU AI sẽ tăng lên 400 tỷ USD trong bốn năm tới. "Nvidia dự kiến sẽ chiếm lĩnh thị trường, nhưng chúng tôi cũng tin rằng sẽ có một đóng góp quan trọng", bà Su chia sẻ.
Viết bình luận