NVIDIA đã quyết định bỏ một trong những công cụ "Llama-3.1-nemotron-70B lớn nhất của ngành công nghiệp LLM, vượt qua Sonnet Openai GPT-4O & Anthropic của Claude 3.5.
NVIDIA đang tìm cách thống trị phân khúc AI, tiết lộ LLM mới nhất của mình, nhắm đến việc tinh chỉnh các phản hồi của người dùng
Team Green đang đẩy các bánh răng khi nói đến việc đổi mới phân khúc AI theo những cách được coi là không thể, và sau khithống trị phân khúc "phần cứng AI", công ty hiện đang hướng tới việc thể hiện sự kỳ diệu của mình trong các mô hình LLM nguồn mở, hợp tác với Meta.LLM LLM mới nhất từ NVIDIA chưa thấy nhiều bảo hiểm chính thống, nhưng dựa trên thông tin ban đầu có sẵn cùng với điểm chuẩn, LLM mới từ Team Green có thể trở thành hàng đầu trong ngành.
Nvidia nói rằng LLM LLAMA-3.1-Nemotron-70B LLM chỉ được thiết kế để đưa ra phản hồi AI cụ thể hơn nhiều và phù hợp với sở thích của con người, đặc biệt là về tính chính xác thực tế và giải quyết vấn đề mạch lạc.Mô hình này được cho là được đào tạo dựa trên cơ sở LLAMA-3.1-70B của Meta, một lần nữa là một sáng tạo của meta được thiết kế cho 70 tỷ tham số.Với tinh chỉnh của Nvidia, bộ chuyển giới LLAMA-3.1-Nemotron-70B đặc biệt nhắm đến "mô hình phần thưởng hồi quy SteerlM".
Bài đăng đang lặn vào một chút kỹ thuật, nhưng được cho là một điều kỳ diệu như vậy, ý tôi là, nó xứng đáng với nó.Vì vậy, mô hình phần thưởng hồi quy SteerLM liên quan đến việc xác định chức năng phần thưởng hướng dẫn quá trình học tập của LLM bằng cách sử dụng các mô hình hồi quy để tinh chỉnh các bộ dữ liệu để tạo phản hồi rõ ràng hơn.Điều này làm cho chất lượng dữ liệu và độ phức tạp mô hình tinh tế hơn nhiều, cuối cùng cho phép NVIDIA tạo ra các phản hồi gần với các yêu cầu của người dùng.
Điều thú vị là, dựa trên thẻ mô hình LLM LLAMA-3.1-nemotron-70B có mặt tạiCái ôm, mô hình đặc biệt này quản lý để giải quyết vấn đề "Dâu", mà các mô hình AI truyền thống không thể giải quyết được, nơi nó liên quan đến việc đếm R trong từ này.Đây không chỉ là thành tích duy nhất, vì các chi tiết sắp tới có thể làm độc giả ngạc nhiên hơn.LLM LLM của NVIDIA đã đạt được thứ hạng hàng đầu tại nhiều điểm chuẩn, đặc biệt là Arena Hard, một công cụ đánh giá tự động cho LLM điều chỉnh hướng dẫn và đây là cách đạt điểm tổng thể.
Người mẫu |
Đấu trường khó |
Alpacaeval |
MT-Bench |
Độ dài phản hồi trung bình |
Chi tiết |
(95% CI) |
2 LC (SE) |
(GPT-4-TURBO) |
(# của các ký tự cho băng ghế MT) |
Llama-3.1-nemotron-70b-Biểu diễn |
85.0(-1,5, 1.5) |
57.6(1.65) |
8,98 |
2199.8 |
Llama-3.1-70b-Instruct |
55.7 (-2,9, 2.7) |
38.1 (0,90) |
8,22 |
1728.6 |
Llama-3.1-405b-Instruct |
69.3 (-2.4, 2.2) |
39.3 (1.43) |
8,49 |
1664.7 |
Claude-3-5-Sonnet-20240620 |
79.2 (-1.9, 1.7) |
52.4 (1.47) |
8,81 |
1619,9 |
GPT-4O-2024-05-13 |
79.3 (-2.1, 2.0) |
57,5 (1.47) |
8,74 |
1752.2 |
Bây giờ không tham gia vào các số liệu cụ thể, nhưng yếu tố quan trọng cần lưu ý ở đây là cấu trúc LLAMA-3.1-NEMOTRON-70B đã xoay sở để vượt qua các LLM chính trong ngành, chẳng hạn như GPT-4O của Openai, đây là mộtCột mốc quan trọng, được đưa ra mức độ ảnh hưởng lớn đến mức độ tác động của NVIDIA đối với cơ sở Llama-3.1-70b-Inruction.Chúng tôi chưa thấy LLM thực hiện như thế nào trong các tình huống cụ thể, chẳng hạn như các tác vụ mã hóa phức tạp hoặc thậm chí các vấn đề tập trung vào suy luận, nhưng các điểm chuẩn ban đầu cho thấy rằng LLM mới nhất của NVIDIA được trang bị tốt.
Chà, nếu bạn háo hức truy cập vào LLM LLAMA-3.1-NEMOTRON-70B LLM, bạn có thể lấy nó từ nền tảng "NIM" của NVIDIAđây, hoặc có một phiên bản tương thích có sẵn tại HuggingFace, bạn có thể xemđây.Nhìn chung, Team Green đang trên đường trở thành chiếm ưu thế trong ngành AI, chinh phục các phân khúc chính.
Nguồn: wccftech.com/nvidia-open-source-llama-3-1-nemotron-70b-instruct-llm-surpassing-openai-gpt-4o/