Những nguồn tin cho biết thêm rằng khi các mô hình ngôn ngữ lớn trở nên mạnh mẽ hơn,
"tiềm năng khí giới hóa" thứ công nghệ này, áp dụng nó cho mục đích xấu cũng sẽ tăng lên. Một nguồn tin trả lời phỏng vấn tờ FT:
“Nhưng vì nhu cầu sử dụng công nghệ AI cao hơn, họ muốn tung ra những phiên bản mới nhanh hơn. Tôi hy vọng đó không phải là một sai lầm thảm khốc, nhưng rõ ràng động thái này là liều lĩnh. Đây là công thức hoàn hảo để tạo ra thảm họa."
Áp lực rút ngắn thời gian thử nghiệm
an toàn AI đã được thúc đẩy bởi “áp lực cạnh tranh”, khi OpenAI hiện giờ đang phải chạy đua với các tập đoàn công nghệ lớn như Meta và Google, cũng như các startup bao gồm xAI của Elon Musk để tận dụng sức mạnh của công nghệ AI tạo sinh.
Hiện tại chưa có tiêu chuẩn toàn cầu nào áp dụng cho việc kiểm tra an toàn AI. Nhưng từ cuối năm nay, Đạo luật AI của EU sẽ buộc các công ty phải thực hiện các bài kiểm tra an toàn đối với các mô hình mạnh mẽ nhất của họ. Trước đây, các nhóm AI, bao gồm cả OpenAI, đã ký kết các cam kết tự nguyện với chính phủ ở Anh và Mỹ để cho phép các nhà
nghiên cứu tại các viện an toàn AI kiểm tra mô hình.
OpenAI đang đẩy nhanh việc phát hành mô hình o3 mới của mình, có thể sớm nhất là vào tuần tới, chỉ cho một số người thử nghiệm ít hơn một tuần để thực hiện các bài kiểm tra an toàn, theo những người am hiểu về vấn đề này. Ngày ra mắt này có thể thay đổi.
Trước đây, OpenAI cho nhóm nghiên cứu an toàn AI vài tháng để kiểm tra an toàn đối với những mô hình AI sắp ra mắt. Đối với GPT-4, được ra mắt vào năm 2023, đội ngũ chuyên viên thử nghiệm đã có tận nửa năm để thực hiện đánh giá an toàn vận hành trước khi nó được phát hành chính thức.
Một người từng thực hiện quá trình kiểm tra mô hình GPT-4 cho biết, một số khả năng nguy hiểm đối với cộng đồng và người dùng chỉ được phát hiện sau hai tháng thử nghiệm. “Họ hoàn toàn không ưu tiên an toàn AI cho mọi người,” nguồn tin này nói về cách tiếp cận an toàn AI hiện tại của OpenAI.
“Không có quy định nào yêu cầu các công ty phải thông báo cho công chúng biết về tất cả các khả năng đáng sợ của AI… Và hiện tại cũng có rất nhiều áp lực khi các đơn vị cạnh tranh với nhau, nên họ sẽ không ngừng cải thiện sức mạnh của mô hình ngôn ngữ,” Daniel Kokotajlo, một nhà nghiên cứu từng làm việc cho OpenAI, hiện dẫn dắt nhóm nghiên cứu phi lợi nhuận AI Futures Project nói.