Openai và Broadcom Kế hoạch mẫu AI Chip tùy chỉnh cho cuối năm nay
OpenAI dự kiến hoàn thiện thiết kế bộ vi xử lý AI tùy chỉnh đầu tiên trong vài tháng tới và gửi cho TSMC để sản xuất, với mục tiêu sản xuất quy mô lớn vào năm 2026, theo báo cáo của Reuters. Để cạnh tranh về chi phí với các đối thủ như Google, Meta và Microsoft, OpenAI cần có bộ vi xử lý tùy chỉnh sớm hơn. Silicon tùy chỉnh mà OpenAI phát triển cho các bộ vi xử lý AI dự kiến sẽ có thiết kế mảng xung, bao gồm các phần tử xử lý giống nhau được sắp xếp theo hàng và cột để thực hiện các phép toán ma trận hoặc vector.
Bộ vi xử lý được cho là sử dụng bộ nhớ HBM, tuy nhiên chưa rõ OpenAI có kế hoạch sử dụng HBM3E hay HBM4. Về công nghệ sản xuất, OpenAI dự định sử dụng quy trình chế tạo 3nm N3-series của TSMC. OpenAI đang làm việc với Broadcom để phát triển bộ vi xử lý tùy chỉnh cho các tác vụ AI. Thông thường, các công ty hợp tác với Broadcom sẽ phát triển tài sản trí tuệ quan trọng tại chỗ hoặc ít nhất định nghĩa cùng với Broadcom, sau đó Broadcom sẽ thêm các phần còn lại như lõi CPU đa năng, bộ nhớ, bộ điều khiển IO và giao diện vật lý, cũng như lắp ráp thiết kế cuối cùng.
Ở OpenAI, công việc được dẫn dắt bởi Richard Ho, người từng làm việc tại TPUs của Google. Đội ngũ của Ho đã tăng gấp đôi lên 40 kỹ sư gần đây, nhưng vẫn nhỏ hơn nhiều so với Amazon Web Services hay Google. Để mở rộng quy mô tương đương với Google hay Amazon, OpenAI sẽ cần tuyển thêm hàng trăm kỹ sư. Do đó, có thể kỳ vọng rằng đóng góp của OpenAI vào thiết kế sẽ tương đối nhỏ.
OpenAI xem vi xử lý tùy chỉnh của mình là cách để tăng cường sức mạnh thương lượng với các nhà cung cấp hiện tại, chủ yếu là Nvidia. Nếu thành công, công ty sẽ cải tiến và nâng cấp silicon tùy chỉnh theo thời gian, mở rộng chức năng qua từng phiên bản. Phiên bản đầu tiên dự kiến sẽ được sản xuất với số lượng nhỏ, chủ yếu để xử lý các tác vụ suy diễn trên các mô hình AI thay vì huấn luyện chúng.
Phát triển một bộ xử lý AI hiệu suất cao là một công việc tốn kém, ước tính chi phí cho một mô hình có thể lên tới hàng trăm triệu đô la, chưa kể hạ tầng hỗ trợ có thể làm tăng gấp đôi số tiền đó. Tuy nhiên, khi phát triển nhiều bộ xử lý cho một nền tảng, chi phí mỗi bộ xử lý thường giảm. Lịch sử cho thấy ngay cả các công ty lớn như AWS, Google, Meta và Microsoft cũng gặp khó khăn trong việc tạo ra các bộ xử lý nội bộ cạnh tranh với GPU của Nvidia về hiệu suất.
Họ đã phát triển các vi xử lý rẻ hơn và hiệu quả năng lượng cao hơn phù hợp với công việc của mình, giúp bù đắp chi phí phát triển. Các vi xử lý tùy chỉnh này cũng làm giảm chi phí chạy mô hình AI cho khách hàng đám mây, mang lại lợi ích cho thị trường. Nhu cầu về chip AI đang tăng mạnh khi các công ty công nghệ lớn cần nhiều vi xử lý để huấn luyện và vận hành các mô hình ngày càng tinh vi.
Meta đã phân bổ 60 tỷ đô la cho hạ tầng AI trong năm nay, trong khi Microsoft dự định đầu tư 80 tỷ đô la vào năm 2025. OpenAI chưa công bố kế hoạch chi tiêu cho năm 2025, nhưng có khả năng cũng sẽ chi hàng chục tỷ đô la cho phần cứng, phần mềm và hạ tầng trong năm nay. Nếu OpenAI có thể hoàn thiện bộ vi xử lý tùy chỉnh đầu tiên trong vài tháng tới, họ có thể sản xuất hàng loạt vào giữa năm 2026.
Nếu may mắn, nó sẽ bắt đầu triển khai vào nửa cuối năm 2026.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/openai-and-broadcom-to-finalize-custom-ai-processor-in-the-coming-months-say-industry-sources