Chuyên gia đổ nước lạnh vào triển vọng AI của Apple
Giáo sư Seok Joon Kwon từ Đại học Sungkyunkwan cho rằng nghiên cứu gần đây của Apple về giới hạn lý luận của các mô hình lý luận lớn (LRMs) và mô hình ngôn ngữ lớn (LLMs) là sai sót, vì Apple không có phần cứng hiệu suất cao để kiểm tra khả năng thực sự của các mô hình này. Ông cho rằng Apple không sở hữu cụm GPU lớn tương đương với Google, Microsoft hay xAI, và phần cứng của họ không phù hợp cho AI.
Cần phần cứng tốt hơn. Một nghiên cứu của Apple gần đây cho biết các mô hình AI hiện tại gặp khó khăn trong việc đưa ra phán đoán đúng khi đối mặt với những vấn đề phức tạp hơn, cho thấy những hạn chế cơ bản của chúng và bác bỏ quan niệm rằng các mô hình này có thể suy nghĩ như con người. Các nhà nghiên cứu nhận thấy rằng các mô hình hoạt động tốt hơn với những câu đố quen thuộc so với những câu đố lạ, cho thấy thành công của chúng chủ yếu đến từ việc đã được huấn luyện chứ không phải từ khả năng giải quyết vấn đề linh hoạt.
Giáo sư cho rằng kết luận chính của nghiên cứu Apple — rằng độ chính xác của Claude 3.7 Sonnet Thinking và DeepSeek-R1 LRMs giảm xuống còn zero khi độ phức tạp vượt quá một ngưỡng nhất định, bất kể tài nguyên tính toán có sẵn — là sai. Ông CEO của Nvidia cũng cho biết Trung Quốc không thua kém Mỹ về khả năng AI, và cụm AI CloudMatrix mới của Huawei vượt trội hơn GB200 của Nvidia nhờ sức mạnh tính toán gấp 4 lần, trong khi kiểm soát xuất khẩu đã thất bại.
Giám đốc điều hành Nvidia, Jensen Huang, chỉ trích các hạn chế về AI của Tổng thống Biden đối với Trung Quốc trong buổi hỏi đáp tại Computex 2025. Seok Joon Kwon lập luận rằng điều này mâu thuẫn trực tiếp với các quan sát từ các quy luật mở rộng mô hình ngôn ngữ. Hàng trăm nghiên cứu liên quan đến quy mô đã nhất quán chỉ ra rằng hiệu suất cải thiện theo cách lũy thừa khi số lượng tham số tăng, và sau một kích thước nhất định, hiệu suất có xu hướng đạt đến bão hòa.
Ít nhất, hiệu suất có thể đạt đến ngưỡng bão hòa nhưng không giảm. Điều này có thể do Apple không có một trung tâm dữ liệu AI dựa trên GPU đủ lớn để kiểm tra không gian tham số cần thiết cho việc xác nhận xu hướng mở rộng. Việc xác minh quy luật mở rộng tương tự như xác minh quy luật mở rộng của các mô hình ngôn ngữ lớn, và các nhà nghiên cứu của Apple nên thử nghiệm các tổ hợp dữ liệu huấn luyện, tham số và tải tính toán để trình bày đường cong hiệu suất.
Báo cáo của Apple được phát hành trước hội nghị WWDC hàng năm, nhưng công ty không công bố điều gì quan trọng liên quan đến nỗ lực AI, dẫn đến chỉ trích rằng họ có thể đang tụt lại trong cuộc đua toàn cầu về AI. Seok Joon Kwon cho rằng sự trùng hợp này không phải ngẫu nhiên, và Apple có ý định hạ thấp thành tựu của các công ty như Anthropic, Google, OpenAI, hay xAI, vì họ rõ ràng đang theo sau các nhà lãnh đạo thị trường.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Hạn chế phần cứng cơ bản Khi Apple ra mắt sáng kiến Apple Intelligence vào năm 2024, hãng tập trung vào xử lý trên thiết bị và các tác vụ cơ bản. Tại WWDC, Apple không công bố tiến triển nào liên quan đến AI cấp trung tâm dữ liệu của mình, tiếp tục giới hạn Apple Intelligence vào xử lý trên thiết bị với các ràng buộc nghiêm ngặt về quyền riêng tư và hiệu suất. Mặc dù cách tiếp cận này củng cố vị thế của Apple trong mắt người dùng chú trọng đến quyền riêng tư, nhưng điều đó cũng có nghĩa là công ty không có khả năng huấn luyện các mô hình ngôn ngữ lớn (LLMs) và mô hình hồi quy lớn (LRMs) cần nhiều tính toán và dữ liệu người dùng để cạnh tranh.
Apple hiện cho phép Siri và các công cụ AI khác truy cập các mô hình ngôn ngữ lớn bên ngoài, như ChatGPT 4o và sắp tới là Gemini, khi Siri không thể trả lời câu hỏi. Trong trường hợp này, ChatGPT chỉ nhận nội dung được người dùng phê duyệt. Apple bảo vệ địa chỉ IP của người dùng và cam kết không chia sẻ hay lưu trữ dữ liệu tài khoản cá nhân với OpenAI. Cách tiếp cận này không phổ biến với Apple, và Giáo sư Seok Joon Kwon cho rằng nó xuất phát từ việc Apple tập trung vào hệ sinh thái khép kín, điều này đã cản trở việc phát triển phần cứng trung tâm dữ liệu cần thiết để huấn luyện các mô hình ngôn ngữ lớn.
Cuối cùng, vi xử lý M-series của Apple chủ yếu được thiết kế cho máy tính cá nhân, do đó GPU của chúng không hỗ trợ FP16 cho đào tạo AI, và hệ thống bộ nhớ sử dụng LPDDR5 thay vì HBM3E hiệu suất cao. Hơn nữa, CPU M-series của Apple không hỗ trợ các framework học máy phổ biến như PyTorch, đòi hỏi phải chuyển đổi phức tạp. Do đó, để theo kịp đối thủ, Apple cần phát triển vi xử lý chuyên dụng cho máy chủ với hệ thống bộ nhớ tiên tiến và khả năng đào tạo, suy luận AI tinh vi, không phụ thuộc vào thiết kế GPU và NPU của M-series cho máy tính cá nhân.
Theo dõi Toms Hardware trên Google News để nhận tin tức, phân tích và đánh giá mới nhất. Đừng quên nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/expert-pours-cold-water-on-apples-downbeat-ai-outlook-says-lack-of-high-powered-hardware-could-be-to-blame