Microsoft Maia 100: Chip AI mới giúp giảm sự phụ thuộc vào Nvidia

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Microsoft Maia 100: Chip AI mới giúp giảm sự phụ thuộc vào Nvidia

Tại sự kiện Hot Chips 2024 diễn ra hồi đầu năm, Microsoft đã hé lộ mẫu chip xử lý trang bị trên data center mới nhất mà họ tự phát triển, phục vụ huấn luyện cũng như vận hành những mô hình AI tân tiến nhất hiện nay. Microsoft khi ấy nhấn mạnh vào nhu cầu xử lý đám mây của các data center quy mô lớn trên toàn thế giới, đi kèm với đó là nhu cầu trang bị những con chip xử lý với hiệu năng rất cao.

Ở thời điểm hiện tại, dù chưa có số liệu chính thức, Nvidia đang nắm giữ khoảng 75 đến 90% thị phần chip xử lý AI máy chủ. Có lẽ chính vì lý do này, các tập đoàn công nghệ khổng lồ, vừa là đối tác, vừa là khách hàng, lại vừa là đối thủ cạnh tranh của Nvidia đang tìm ra những cách phát triển riêng cho mình những giải pháp chip xử lý tăng tốc vận hành AI.

Vài ngày trước, trên blog chính thức của tập đoàn, Microsoft đã chia sẻ những thông số chi tiết về Maia 100. Dự kiến con chip xử lý này sẽ được trang bị trong những máy chủ Microsoft Azure thuộc những data center của Microsoft, để vận hành những mô hình ngôn ngữ của OpenAI phục vụ các khách hàng cá nhân và doanh nghiệp.

Những chip Maia 100 này được gia công trên tiến trình TSMC 5nm, TDP vận hành được tính toán ở ngưỡng 500W, nhưng tối đa, chúng có thể ngốn tới 700W điện để tạo ra hiệu năng xử lý mạnh nhất trong khả năng của kiến trúc bán dẫn.

2024-08-30-image-43.jpg


Theo Microsoft, thiết kế của Maia 100 cho phép nó vận hành với hiệu năng cao, nhưng hiệu quả tiêu thụ điện năng được xử lý một cách tiết kiệm nhất. Tuy nhiên, trên bề mặt die bán dẫn được đóng gói dựa trên kỹ thuật CoWoS-S của TSMC, sẽ chỉ có 64GB RAM HBM2E cho mỗi die chip xử lý Maia 100, thay vì con số 80GB trên H100, hay thậm chí là 192GB HBM3E trên B200 của Nvidia.

Trên bề mặt die chip xử lý của Maia 100 là cụm transistor xử lý tensor 16xRx16, cho phép xử lý liên tục để huấn luyện và vận hành nội suy nội dung tạo sinh nhờ mô hình ngôn ngữ lớn, cùng lúc hỗ trợ nhiều dạng dữ liệu, bao gồm cả những con số với độ chính xác thấp như format MX của Microsoft.

Kết hợp với đó là superscalar engine, tức là cụm transistor xử lý phép tính vector, với ISA được phát triển riêng để hỗ trợ nhiều dạng dữ liệu khác nhau, như FP32 hay BF16. Cùng với đó là engine Direct Memory Access, hỗ trợ nhiều dạng xử lý tensor, và những cụm phần cứng hỗ trợ lập trình bất đồng bộ.

2024-08-30-image-3.webp

Chip tăng tốc xử lý AI Maia 100 sẽ cung cấp cho các nhà phát triển ứng dụng và các khách hàng sử dụng dịch vụ Azure AI với bộ công cụ phát triển Maia SDK. Bộ công cụ phát triển này cho phép các nhà phát triển AI nhanh chóng chuyển đổi những mô hình trước đó được viết dựa trên ngôn ngữ lập trình Pytorch và Triton để tối ưu vận hành trên chip Maia 100.

SDK này bao gồm khả năng tích hợp framework. công cụ phát triển, hai mô hình hỗ trợ lập trình và compiler để đóng gói mô hình AI. Nó còn có thêm những kernel tối ưu vận hành, gọi là Maia Host/Device Runtime, cho phép chia bộ nhớ và sắp xếp tác vụ xử lý trên chip, cũng như quản lý thiết bị.

Theo Microsoft
Nguồn: Microsoft Maia 100: Con chip xử lý AI giúp giảm phụ thuộc vào Nvidia
💬 bình luận
1

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn