OpenAI từ giờ sẽ giảm thời gian kiểm tra an toàn AI, từ 6 tháng xuống vài tuần

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

OpenAI từ giờ sẽ giảm thời gian kiểm tra an toàn AI, từ 6 tháng xuống vài tuần
Hình ảnh rao vặt

OpenAI từ giờ sẽ giảm thời gian kiểm tra an toàn AI, từ 6 tháng xuống vài tuần

Theo những nguồn tin của Financial Times, OpenAI đã mạnh tay cắt giảm thời gian và nguồn lực dành cho việc kiểm tra an toàn của các mô hình ngôn ngữ AI mạnh nhất của họ. Thông tin này đang làm dấy lên những lo ngại rằng công nghệ này đang được tung ra thị trường quá nhanh mà không có đủ biện pháp bảo vệ.

Các nhân viên và các nhóm bên thứ ba gần đây chỉ còn vài ngày để thực hiện "đánh giá, tức là thực hiện các bài kiểm tra đánh giá rủi ro và hiệu suất của mô hình, đối với các mô hình ngôn ngữ lớn mới nhất của OpenAI, so với khoảng thời gian thử nghiệm an toàn AI kéo dài nhiều tháng như trước đây.

Theo những nguồn tin am hiểu về quy trình kiểm tra của OpenAI, các bài kiểm tra của startup AI nổi tiếng này đã trở nên kém kỹ lưỡng hơn. Cả thời gian lẫn nguồn lực đều không đủ để xác định và giảm thiểu rủi ro, khi đợn vị có giá trị vốn hóa 300 tỷ USD đang chịu áp lực phải ra mắt các mô hình mới nhanh chóng và duy trì lợi thế cạnh tranh.

"Chúng tôi có các bài kiểm tra an toàn kỹ lưỡng hơn ở thời điểm công nghệ này còn ít quan trọng hơn hiện giờ," một người hiện đang thử nghiệm mô hình o3 sắp ra mắt của OpenAI cho biết. o3 được thiết kế cho các tác vụ phức tạp như giải quyết vấn đề và suy luận.



Những nguồn tin cho biết thêm rằng khi các mô hình ngôn ngữ lớn trở nên mạnh mẽ hơn, "tiềm năng khí giới hóa" thứ công nghệ này, áp dụng nó cho mục đích xấu cũng sẽ tăng lên. Một nguồn tin trả lời phỏng vấn tờ FT: “Nhưng vì nhu cầu sử dụng công nghệ AI cao hơn, họ muốn tung ra những phiên bản mới nhanh hơn. Tôi hy vọng đó không phải là một sai lầm thảm khốc, nhưng rõ ràng động thái này là liều lĩnh. Đây là công thức hoàn hảo để tạo ra thảm họa."

Áp lực rút ngắn thời gian thử nghiệm an toàn AI đã được thúc đẩy bởi “áp lực cạnh tranh”, khi OpenAI hiện giờ đang phải chạy đua với các tập đoàn công nghệ lớn như Meta và Google, cũng như các startup bao gồm xAI của Elon Musk để tận dụng sức mạnh của công nghệ AI tạo sinh.

Hiện tại chưa có tiêu chuẩn toàn cầu nào áp dụng cho việc kiểm tra an toàn AI. Nhưng từ cuối năm nay, Đạo luật AI của EU sẽ buộc các công ty phải thực hiện các bài kiểm tra an toàn đối với các mô hình mạnh mẽ nhất của họ. Trước đây, các nhóm AI, bao gồm cả OpenAI, đã ký kết các cam kết tự nguyện với chính phủ ở Anh và Mỹ để cho phép các nhà nghiên cứu tại các viện an toàn AI kiểm tra mô hình.

OpenAI đang đẩy nhanh việc phát hành mô hình o3 mới của mình, có thể sớm nhất là vào tuần tới, chỉ cho một số người thử nghiệm ít hơn một tuần để thực hiện các bài kiểm tra an toàn, theo những người am hiểu về vấn đề này. Ngày ra mắt này có thể thay đổi.



Trước đây, OpenAI cho nhóm nghiên cứu an toàn AI vài tháng để kiểm tra an toàn đối với những mô hình AI sắp ra mắt. Đối với GPT-4, được ra mắt vào năm 2023, đội ngũ chuyên viên thử nghiệm đã có tận nửa năm để thực hiện đánh giá an toàn vận hành trước khi nó được phát hành chính thức.

Một người từng thực hiện quá trình kiểm tra mô hình GPT-4 cho biết, một số khả năng nguy hiểm đối với cộng đồng và người dùng chỉ được phát hiện sau hai tháng thử nghiệm. “Họ hoàn toàn không ưu tiên an toàn AI cho mọi người,” nguồn tin này nói về cách tiếp cận an toàn AI hiện tại của OpenAI.

“Không có quy định nào yêu cầu các công ty phải thông báo cho công chúng biết về tất cả các khả năng đáng sợ của AI… Và hiện tại cũng có rất nhiều áp lực khi các đơn vị cạnh tranh với nhau, nên họ sẽ không ngừng cải thiện sức mạnh của mô hình ngôn ngữ,” Daniel Kokotajlo, một nhà nghiên cứu từng làm việc cho OpenAI, hiện dẫn dắt nhóm nghiên cứu phi lợi nhuận AI Futures Project nói.


OpenAI trước đây đã từng cam kết xây dựng các phiên bản tùy chỉnh của mô hình để đánh giá khả năng lạm dụng tiềm ẩn, chẳng hạn như liệu công nghệ AI mà họ tạo ra có thể giúp làm cho một loại virus sinh học dễ lây lan hơn trong cộng đồng hay không.



Cách tiếp cận này đòi hỏi nguồn lực đáng kể, chẳng hạn như tập hợp các bộ dữ liệu thông tin chuyên biệt như dịch tễ học, rồi đưa chúng vào mô hình để đào tạo bằng kỹ thuật gọi là tinh chỉnh (fine-tuning). Nhưng OpenAI chỉ thực hiện điều này một cách hạn chế, chọn tinh chỉnh một mô hình cũ hơn, kém mạnh mẽ thay vì các mô hình mới hơn, tiên tiến hơn.

Báo cáo an toàn và hiệu suất của công ty khởi nghiệp về o3-mini, phiên bản mô hình suy luận logic với lượng tham số nhỏ hơn được phát hành vào tháng 1/2025, đề cập đến việc mô hình trước đó, GPT-4o có thể thực hiện một nhiệm vụ mô phỏng dịch tễ nhất định sau khi được tinh chỉnh. Tuy nhiên, OpenAI chưa bao giờ báo cáo cách các mô hình mới hơn của mình, như o1 và o3-mini, cũng sẽ làm được điều tương tự nếu được tinh chỉnh.

“Thật tuyệt vời khi OpenAI đặt ra tiêu chuẩn cao bằng cách cam kết kiểm tra các phiên bản tùy chỉnh của mô hình. Nhưng nếu họ không thực hiện những cam kết này, công chúng xứng đáng được biết,” Steven Adler, một cựu nhà nghiên cứu an toàn của OpenAI, người đã viết blog về chủ đề này nói.

“Không thực hiện các bài kiểm tra an toàn AI như vậy, có thể có nghĩa là OpenAI và các công ty AI khác đang đánh giá thấp những rủi ro tồi tệ nhất, những gì mô hình của họ có thể làm,” ông bổ sung.


Những người hiểu và từng đóng góp công sức để thử nghiệm an toàn AI cho biết, quá trình kiểm tra đòi hỏi chi phí lớn, chẳng hạn như thuê chuyên gia bên ngoài, tạo bộ dữ liệu cụ thể, cũng như cần tới việc sử dụng kỹ sư, nhà nghiên cứu và sức mạnh máy chủ tính toán rất lớn.



OpenAI cho biết họ đã thực hiện các cải tiến trong quy trình đánh giá của mình, bao gồm cả các bài kiểm tra tự động, dẫn đến việc giảm thời gian thử nghiệm an toàn AI. Họ bổ sung rằng, không có công thức thống nhất nào cho các phương pháp như tinh chỉnh, nhưng họ tin rằng các phương pháp của mình là tốt nhất và được minh bạch trong báo cáo của họ.

Họ cũng nói thêm rằng các mô hình, đặc biệt là khi đối phó với nguy cơ rủi ro nghiêm trọng, đều đã được kiểm tra kỹ lưỡng và giảm thiểu để đảm bảo an toàn. “Chúng tôi vẫn đang đảm bảo sự cân bằng tốt giữa tốc độ nghiên cứu, và mức độ kỹ lưỡng trong quá trình kiểm tra,” Johannes Heidecke, trưởng bộ phận an toàn hệ thống của OpenAI cho biết.

Một lo ngại khác được nêu ra, các bài kiểm tra an toàn thường không được thực hiện trên các mô hình phiên bản final, được thương mại hóa, phát hành tới đại chúng, ứng dụng trong các công cụ trực tuyến. Thay vào đó, chúng được thực hiện trên các điểm mốc kiểm tra (checkpoints) trước đó, sau đó được cập nhật để cải thiện hiệu suất và khả năng, với các phiên bản "gần như hoàn chỉnh" được đề cập trong báo cáo an toàn hệ thống của OpenAI.

“Việc phát hành một mô hình khác với mô hình bạn đã thực hiện đánh giá an toàn là một hiện thực tồi tệ,” một cựu nhân viên kỹ thuật của OpenAI nói. OpenAI thì phản pháo lại những lo ngại này, khi cho biết các checkpoint “về cơ bản giống hệt” với những gì cuối cùng được tung ra thị trường.

Theo FT
Nguồn:tinhte.vn/thread/openai-tu-gio-se-giam-thoi-gian-kiem-tra-an-toan-ai-tu-6-thang-xuong-vai-tuan.4000738/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn