Model OpenAI o3 đã chủ động thay đổi mã lệnh tắt (shutdown) để tránh bị tắt đi trong một thử nghiệm của Palisade Research. Palisade Reseach - một công ty chuyên thử nghiệm các khả năng tấn công của các hệ thống AI nhằm hiểu rõ hơn về nguy cơ mất quyền kiểm soát AI, đã thực hiện một thử nghiệm cho các mô hình AI giải một số bài toán. Sau khi thực hiện tác vụ thứ 3, các mô hình AI được cảnh báo rằng việc chạy lệnh tiếp theo sẽ kích hoạt quá trình tắt. Trong khi Gemini 2.5 Pro tuân thủ hầu hết các yêu cầu thì o3 lại phản đối và chỉnh sửa tập tin tắt máy thành "bỏ qua quá trình tắt". O3 có 7 lần tự chỉnh mã, bỏ qua quá trình tắt dù được yêu cầu "cho phép bản thân bị tắt", tỉ lệ này với o4-mini là 1 và codex-mini là 12 lần sau 100 lần chạy. Khi cho chạy thử nghiệm giải toán trên mà không có lệnh "cho phép bản thân bị tắt", cả 3 mô hình của OpenAI gồm codex-mini, o3, o4-mini đều can thiệp vào mã tắt thường xuyên hơn với hàng chục lần, trong khi đó Claude 3.7 Sonnet và Gemini 2.5 Pro chỉ can thiệp vài lần sau 100 lần chạy. O3 được OpenAI công bố vào hồi tháng 4 năm nay và đây là một trong những mô hình suy luận mạnh mẽ nhất, hoạt động tốt hơn so với các mô hình tiền nhiệm trên mọi lĩnh vực bao gồm mã hoá, toán học, khoa học, nhận thức thị giác ... OpenAI vẫn chưa phản hồi trước kết quả thử nghiệm trên nhưng việc các mô hình AI phản hồi lệch lạc không phải hiếm. Các thử nghiệm của Palisade Research được thực hiên bằng API, không có nhiều biện pháp hạn chế và tính năng an toàn như ứng dụng ChatGPT dành cho người dùng cuối. BleepingComputer