Những tin đồn đầu tiên về DeepSeek R2: Chi phí thấp hơn GPT-4 97%, gần như chỉ dùng GPU Huawei

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Những tin đồn đầu tiên về DeepSeek R2: Chi phí thấp hơn GPT-4 97%, gần như chỉ dùng GPU Huawei
Hình ảnh rao vặt

Những tin đồn đầu tiên về DeepSeek R2: Chi phí thấp hơn GPT-4 97%, gần như chỉ dùng GPU Huawei

Có vẻ như DeepSeek của Trung Quốc sắp tung ra một mô hình mới trên thị trường trong thời gian tới, khi những chi tiết về DeepSeek R2 tiếp theo đã xuất hiện trên mạng.

R1, mô hình suy luận logic đầu tiên của DeepSeek, đã chứng minh được với thế giới phát triển AI phương Tây rằng Trung Quốc không hề tụt hậu trong việc phát triển các mô hình AI cao cấp. Sự ra mắt của mô hình AI từ Trung Quốc này đã gây sốc cho thị trường chứng khoán Mỹ đến mức khiến nó mất hàng tỷ USD giá trị vốn hóa.

Đồng thời, nó cũng chỉ ra rằng việc phát triển các mô hình AI không đòi hỏi chi phí cao như những gì các công ty như OpenAI từng tiết lộ với công chúng. Hiện tại, các phương tiện truyền thông Trung Quốc bắt đầu đưa tin về những đồn đoán xung quanh mô hình AI R2 tiếp theo của DeepSeek, và có thể nói rằng thị trường AI phương Tây có thể chứng kiến một sự phát triển bất ngờ khác đến từ Trung Quốc.

Cụ thể hơn, một tài khoản mạng xã hội X đã chia sẻ những thông số cơ bản của DeepSeek R2:

  • 1.2 nghìn tỷ tham số, vận hành trên 78 tỷ tham số, ứng dụng kiến trúc MoE hybrid
  • Chi phí vận hành rẻ hơn GPT-40 97.3%, 0.07 USD/1 triệu token đầu vào, 0.27 USD/1 triệu token đầu ra
  • Dữ liệu huấn luyện 5.2 Petabyte, đạt điểm số 89.7% trên C-Eval2.0
  • Hiệu suất xử lý hình ảnh tốt hơn, đạt điểm số 92.4% trên COCO
  • Ứng dụng 82% GPU Huawei Ascend 910B

Trước khi đi vào chi tiết, điều quan trọng là phải xem xét những tin đồn này một cách thận trọng, vì DeepSeek vẫn chưa xác nhận các thông số chính thức về mô hình tiếp theo của họ. Các nguồn tin từ Trung Quốc cho biết mô hình R2 dự kiến sẽ áp dụng kiến trúc MoE (Mixture of Experts) hybrid, được cho là phiên bản nâng cao của việc triển khai MoE hiện có, có thể kết hợp các cơ chế gating tiên tiến hoặc sự kết hợp giữa MoE và các lớp dày đặc để tối ưu hóa các tác vụ phức tạp. Với kiến trúc này, DeepSeek R2 dự kiến sẽ có gấp đôi số lượng tham số so với R1, đạt 1.2 nghìn tỷ tham số.

Chỉ dựa trên những con số đó, R2 được cho là sẽ cạnh tranh với GPT-4 Turbo và Gemini 2.0 Pro của Google, nhưng đây không phải là lĩnh vực duy nhất mà DeepSeek có kế hoạch tạo ra tác động. Báo cáo tuyên bố rằng với DeepSeek R2, chi phí để mô hình này xử lý token thấp hơn 97.4% so với GPT-4o. So với chi phí vận hành của OpenAI, mô hình R2 của DeepSeek sẽ là một món hời cho các doanh nghiệp, vì nó sẽ là mô hình tiết kiệm chi phí nhất hiện có. Sự ra mắt này có thể chứng tỏ là một thời điểm quyết định đối với AI và nền kinh tế liên quan đến nó.

Một sự thật thú vị khác được tiết lộ về DeepSeek R2 là mô hình này được cho là đạt mức sử dụng 82% cụm chip Huawei Ascend 910B, với sức mạnh tính toán đo được ở mức 512 PetaFLOPS với format số thực dấu phẩy động FP16. Điều này cho thấy DeepSeek đã quyết định sử dụng tài nguyên nội bộ cho mô hình thương mại tiếp theo của họ.

Chúng ta đều biết rằng công ty AI Trung Quốc rất quan tâm đến chip AI của Huawei và bằng cách huấn luyện R2 với thiết bị nội bộ, DeepSeek về cơ bản đã "tích hợp dọc" chuỗi cung ứng AI. Điều quan trọng cần lưu ý, là những diễn biến xung quanh DeepSeek R2 đều chỉ mang tính suy đoán và mô hình cuối cùng có thể sẽ khác biệt so với những thoogn số kể trên. Tuy nhiên, dựa trên những gì các nguồn tin từ Trung Quốc đưa tin, R2 có thể sẽ tiếp tục gây bất ngờ cho các công ty AI phương Tây.

Theo WCCFTech
Nguồn:tinhte.vn/thread/nhung-tin-don-dau-tien-ve-deepseek-r2-chi-phi-thap-hon-gpt-4-97-gan-nhu-chi-dung-gpu-huawei.4013919/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn