Theo Microsoft, thiết kế của Maia 100 cho phép nó vận hành với hiệu năng cao, nhưng hiệu quả tiêu thụ điện năng được xử lý một cách tiết kiệm nhất. Tuy nhiên, trên bề mặt die bán dẫn được đóng gói dựa trên kỹ thuật CoWoS-S của TSMC, sẽ chỉ có 64GB RAM HBM2E cho mỗi die chip xử lý Maia 100, thay vì con số 80GB trên H100, hay thậm chí là 192GB HBM3E trên B200 của Nvidia.
Trên bề mặt die chip xử lý của Maia 100 là cụm transistor xử lý tensor 16xRx16, cho phép xử lý liên tục để huấn luyện và vận hành nội suy nội dung tạo sinh nhờ mô hình ngôn ngữ lớn, cùng lúc hỗ trợ nhiều dạng dữ liệu, bao gồm cả những con số với độ chính xác thấp như format MX của Microsoft.
Kết hợp với đó là superscalar engine, tức là cụm transistor xử lý phép tính vector, với ISA được phát triển riêng để hỗ trợ nhiều dạng dữ liệu khác nhau, như FP32 hay BF16. Cùng với đó là engine Direct Memory Access, hỗ trợ nhiều dạng xử lý tensor, và những cụm phần cứng hỗ trợ lập trình bất đồng bộ.
Chip tăng tốc xử lý AI Maia 100 sẽ cung cấp cho các nhà phát triển ứng dụng và các khách hàng sử dụng dịch vụ Azure AI với bộ công cụ phát triển Maia SDK. Bộ công cụ phát triển này cho phép các nhà phát triển AI nhanh chóng chuyển đổi những mô hình trước đó được viết dựa trên ngôn ngữ lập trình Pytorch và Triton để tối ưu vận hành trên chip Maia 100.
SDK này bao gồm khả năng tích hợp framework. công cụ phát triển, hai mô hình hỗ trợ lập trình và compiler để đóng gói mô hình AI. Nó còn có thêm những kernel tối ưu vận hành, gọi là Maia Host/Device Runtime, cho phép chia bộ nhớ và sắp xếp tác vụ xử lý trên chip, cũng như quản lý thiết bị.
Theo Microsoft