Nhóm nghiên cứu AI tuyên bố tái tạo các công nghệ cốt lõi của DeepSeek với giá 30 đô la-mô hình R1-Z-Zero tương đối nhỏ có khả năng giải quyết vấn đề đáng chú ý
Một nhóm nghiên cứu AI từ Đại học California, Berkeley, do ứng viên tiến sĩ Jiayi Pan dẫn dắt, tuyên bố đã tái tạo công nghệ cốt lõi của DeepSeek R1-Zero chỉ trong 30 giờ, chứng minh rằng các mô hình tiên tiến có thể được triển khai với chi phí hợp lý. Theo Jiayi Pan trên Nitter, nhóm của họ đã tái tạo DeepSeek R1-Zero trong trò chơi Countdown, và mô hình ngôn ngữ nhỏ với 3 tỷ tham số đã phát triển khả năng tự xác minh và tìm kiếm thông qua học tăng cường.
Pan cho biết họ bắt đầu với một mô hình ngôn ngữ cơ bản, một prompt và một phần thưởng thực tế. Từ đó, nhóm đã áp dụng học tăng cường dựa trên trò chơi Countdown, một trò chơi dựa trên chương trình truyền hình nổi tiếng của Anh, trong đó người chơi phải tìm một số mục tiêu ngẫu nhiên từ một nhóm số khác bằng cách sử dụng phép toán cơ bản. Nhóm cho biết mô hình của họ ban đầu chỉ đưa ra các kết quả giả lập nhưng sau đó đã phát triển các chiến thuật như chỉnh sửa và tìm kiếm để tìm ra câu trả lời chính xác.
Một ví dụ cho thấy mô hình đề xuất một câu trả lời, kiểm tra tính chính xác và điều chỉnh qua nhiều lần lặp cho đến khi tìm ra giải pháp đúng. Ngoài trò chơi Countdown, Pan cũng thử nghiệm phép nhân trên mô hình của mình, sử dụng kỹ thuật khác để giải phương trình. Mô hình này phân tích vấn đề bằng cách áp dụng tính chất phân phối của phép nhân, tương tự như cách một số người thực hiện phép nhân các số lớn trong đầu, và sau đó giải quyết từng bước.
Nhóm nghiên cứu tại Berkeley đã thử nghiệm với nhiều cơ sở khác nhau cho mô hình DeepSeek R1-Zero của họ. Họ bắt đầu với một mô hình chỉ có 500 triệu tham số, trong đó mô hình chỉ đoán một giải pháp khả thi và dừng lại, bất kể đúng hay sai. Tuy nhiên, khi sử dụng một cơ sở có 1, họ đã bắt đầu nhận được kết quả cho thấy các mô hình đã học được các kỹ thuật khác nhau để đạt điểm cao hơn.
Mô hình với 5 tỷ tham số cho thấy khi tăng lên 3-7 tỷ tham số, nó có thể tìm ra câu trả lời đúng nhanh hơn. Đáng chú ý, nhóm Berkeley chỉ mất khoảng 30 để thực hiện điều này. Hiện tại, API của OpenAI có giá 15 USD cho mỗi triệu token đầu vào, gấp hơn 27 lần so với 0,55 USD của DeepSeek-R1. Pan cho biết dự án này nhằm mục tiêu làm cho nghiên cứu tăng cường học tập trở nên dễ tiếp cận hơn, đặc biệt là với chi phí thấp.
Tuy nhiên, chuyên gia học máy Nathan Lambert đang tranh cãi về chi phí thực sự của DeepSeek, cho rằng chi phí 5 triệu đô la để đào tạo mô hình LLM 671 tỷ tham số không phản ánh đầy đủ. Các chi phí khác như nhân sự nghiên cứu, hạ tầng và điện năng dường như không được tính vào, với Lambert ước tính chi phí hoạt động hàng năm của DeepSeek AI từ 500 triệu đến hơn 1 tỷ đô la.
Tuy nhiên, đây vẫn là một thành tựu, đặc biệt khi các mô hình AI của Mỹ đang chi 10 tỷ đô la mỗi năm cho nỗ lực AI của họ.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/ai-research-team-claims-to-reproduce-deepseek-core-technologies-for-usd30-relatively-small-r1-zero-model-has-remarkable-problem-solving-abilities
Bình luận