Pegatron chuẩn bị 1.177 giá đỡ AI PFLOP với 128 AMD MI350X GPUS
Pegatron đã giới thiệu một giải pháp rack-scale độc đáo sử dụng 128 bộ tăng tốc AMD Instinct MI350X thế hệ tiếp theo, được thiết kế cho các ứng dụng AI yêu cầu hiệu suất cao tại Computex. Hệ thống này là một thế hệ trước các giải pháp rack-scale do AMD tự thiết kế, vì vậy Pegatron sẽ sử dụng hệ thống này để phát triển các giải pháp IF64 và IF128 dựa trên AMD Instinct MI450X trong khoảng một năm tới.
Hệ thống rack-scale Pegatron AS501-4A1AS500-4A1 bao gồm tám khay tính 5U, mỗi khay chứa một vi xử lý AMD EPYC 9005 và bốn bộ tăng cường AI và HPC AMD Instinct MI350X. CPU và các bộ tăng cường được làm mát bằng chất lỏng để đảm bảo hiệu suất tối đa dưới tải cao. Máy có dạng 51OU ORV3, phù hợp cho các trung tâm dữ liệu đám mây theo tiêu chuẩn OCP của Meta.
Máy tính kết nối các GPU nằm trong khung khác nhau qua 400 GbE, vì AMD không có công tắc độc quyền cho kết nối Infinity Fabric. Hiện tại, quy mô tối đa của AMD Instinct là tám bộ xử lý. Điều này khác với nền tảng Nvidia GB200GB300 NVL72, có 72 GPU được kết nối bằng công nghệ NVLink siêu nhanh của công ty.
Hệ thống Instinct MI350X của AMD chỉ có khả năng mở rộng hạn chế so với GB200GB300 NVL72. Các chuyên gia phân tích cho rằng khả năng mở rộng hạn chế của Instinct MI325X sẽ ảnh hưởng đến doanh số bán hàng. Nvidia đã công bố Blackwell Ultra B300, nhanh gấp 1,5 lần B200 với 288GB HBM3e và 15 PFLOPS FP4. Máy mới sẽ được sử dụng bởi các nhà phát triển OCP cho các công việc hiện tại và để học cách xây dựng hệ thống dựa trên AMD Instinct với nhiều GPU từ cả phần cứng lẫn phần mềm.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Máy móc của Pegatron rất quan trọng, đặc biệt trong việc thách thức vị thế của Nvidia trong giải pháp AI quy mô rack. Hệ thống 128-GPU của Pegatron dựa trên AMD Instinct MI350X có thể đạt đỉnh lý thuyết 1,177 PFLOPS cho tính toán FP4 trong suy diễn, giả sử khả năng mở rộng gần như tuyến tính.
Mỗi MI350X hỗ trợ tối đa 288GB HBM3E, giúp hệ thống cung cấp 36.8TB bộ nhớ tốc độ cao, cho phép chạy các mô hình AI lớn hơn khả năng của GPU Blackwell hiện tại của Nvidia. Tuy nhiên, việc phụ thuộc vào Ethernet cho giao tiếp giữa các GPU hạn chế khả năng mở rộng của hệ thống. Với tối đa 8 GPU, hệ thống này có khả năng phù hợp hơn cho các công việc suy diễn hoặc đào tạo đa phiên bản, thay vì đào tạo LLM đồng bộ chặt chẽ, nơi mà hệ thống NVL72 của Nvidia nổi bật.
Nó vẫn là một giải pháp hiệu suất cao, giàu bộ nhớ và là bước đệm cho các giải pháp Instinct MI400-series thế hệ tiếp theo của AMD. Hãy theo dõi Toms Hardware trên Google News để nhận tin tức, phân tích và đánh giá mới nhất. Đừng quên nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/pc-components/gpus/pegatron-preps-1-177-pflop-ai-rack-with-128-amd-mi350x-gpus