Chính sách Openai cũ cáo buộc công ty đã thay đổi tường thuật an toàn AI của mình
OpenAI đang tích cực theo đuổi tầm nhìn đầy tham vọng của mình, đặc biệt là trước sự phổ biến ngày càng tăng của DeepSeeks, điều này đe dọa vị thế của OpenAI trong lĩnh vực AI. Công ty đang phát triển AGI và cho rằng các tác nhân AI siêu việt sẽ là xu hướng tiếp theo. Mặc dù OpenAI luôn cân bằng giữa an toàn và cạnh tranh, nhưng cách tiếp cận gần đây của họ về an toàn AI không được đón nhận tích cực, đặc biệt là khi một thành viên quan trọng trước đây chỉ trích hướng đi của công ty và đặt câu hỏi về việc liệu công ty có đang thay đổi câu chuyện của mình hay không.
Một cựu lãnh đạo chính sách đã chỉ trích OpenAI về việc thay đổi quan điểm về an toàn AI và các biện pháp trách nhiệm. OpenAI gần đây đã chia sẻ cách tiếp cận của mình trong việc triển khai từng bước các mô hình AI, lấy ví dụ từ việc phát hành cẩn thận GPT-2. Tuy nhiên, ví dụ này đã nhận sự chỉ trích từ Miles Brundage, một cựu nhà nghiên cứu chính sách của OpenAI, người cho rằng công ty đang thay đổi câu chuyện về lịch sử an toàn AI.
Tài liệu mà OpenAI công bố nêu rõ cách tiếp cận của họ đối với an toàn AI và việc triển khai các mô hình. Họ nhấn mạnh việc thận trọng với các hệ thống hiện tại và đề cập đến GPT-2 như một phần trong cách tiếp cận thận trọng của mình. Công ty tin rằng việc học hỏi từ các công cụ hiện có sẽ giúp đảm bảo an toàn cho các hệ thống trong tương lai. Trong tài liệu, họ cho biết: "Trong một thế giới không liên tục, bài học về an toàn đến từ việc xử lý các hệ thống hiện tại với sự thận trọng lớn hơn so với sức mạnh rõ ràng của chúng, đó là cách tiếp cận mà chúng tôi đã áp dụng cho mô hình AI GPT-2."
Chúng ta coi AGI đầu tiên chỉ là một giai đoạn trong chuỗi các hệ thống ngày càng hữu ích. Để phát triển hệ thống tiếp theo an toàn và có lợi, cần học hỏi từ hệ thống hiện tại. Miles Brundage, cựu trưởng bộ phận nghiên cứu chính sách của công ty, nhấn mạnh rằng việc phát hành GPT-2 cũng theo phương pháp từng bước, với OpenAI chia sẻ thông tin ở mỗi giai đoạn, và các chuyên gia an ninh ghi nhận và đánh giá cao cách tiếp cận thận trọng của công ty trong việc xử lý mô hình.
Ông cho rằng việc phát hành dần dần GPT-2 phù hợp với chiến lược triển khai hiện tại và tin rằng sự thận trọng trong quá khứ là cần thiết và có trách nhiệm. Phần lớn bài viết này tốt, tôi khen ngợi những người làm việc về nội dung mà nó đề cập. Tuy nhiên, tôi cảm thấy khó chịu và lo ngại về phần "AGI qua nhiều bước thay vì một bước nhảy vọt", vì nó viết lại lịch sử của GPT-2 theo cách đáng lo ngại.
Miles Brundage bày tỏ lo ngại về tuyên bố của OpenAI rằng AGI sẽ phát triển từng bước một thay vì đột phá bất ngờ. Ông cho rằng công ty đã xuyên tạc lịch sử phát hành GPT-2 và chỉnh sửa lịch sử an toàn, điều này gây lo ngại. Brundage cũng cảnh báo rằng việc OpenAI phát hành tài liệu để tạo tiêu chuẩn hoặc coi các mối lo ngại về an toàn là phản ứng thái quá có thể gây ra rủi ro lớn, đặc biệt khi AI ngày càng phát triển.
Đây không phải lần đầu tiên OpenAI bị chỉ trích vì đặt tiến bộ và lợi nhuận lên trên sự an toàn lâu dài. Các chuyên gia như Brundage đặt câu hỏi về tính hợp lý của sự đánh đổi này và bày tỏ lo ngại về tương lai nếu an toàn AI không được xử lý cẩn thận.
Nguồn: wccftech.com/former-openai-policy-lead-accuses-the-company-of-altering-its-ai-safety-narrative/