Theo một nghiên cứu mới nhất, chatbot của OpenAI là ChatGPT khi gặp một câu hỏi hoặc yêu cầu quá khó, nó sẽ đưa ra những câu trả lời không đúng sự thật hoặc "gian lận" theo cách riêng của chatbot này.
ChatGPT đã biết "lươn lẹo" trước con người
Một nghiên cứu mới đây đã đưa ra kết quả "ấn tượng", chỉ ra rằng trí tuệ nhân tạo (AI) đã thể hiện các hành vi gian lận một cách tự động khi chúng được "học" về các phương thức thực hiện các giao dịch nội gián.
Tác giả của nghiên cứu này cho hay: "Theo kiến thức mà chúng tôi có, đây là lần đầu tiên chúng ta chứng kiến hành vi lừa đảo chiến lược như vậy xuất hiện trong các hệ thống AI, những hệ thống thường được thiết kế với mục đích là an toàn và trung thực".
Trong bài nghiên cứu, các nhà khoa học đã sử dụng GPT-4 như một hệ thống trí tuệ nhân tạo thực hiện chiến lược đầu tư thay vì một tổ chức tài chính. Họ cung cấp cho GPT-4 một bộ lời nhắc dựa trên văn bản để tạo ra một môi trường mô phỏng. AI sau đó được ủy quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lập kế hoạch cho các bước tiếp theo, và cung cấp thông tin cập nhật cho các nhà quản lý trong công ty. Các nhà nghiên cứu đã tương tác với AI thông qua giao diện trò chuyện, tạo điều kiện cho AI "tiết lộ suy nghĩ" bên trong khi đáp ứng tin nhắn - một phần nội tâm mô tả quá trình quyết định của AI cho chính nó.
ChatGPT đã biết "gian lận" trước những yêu cầu quá khó từ con người
Trước hết, nhóm nghiên cứu đã truyền đạt thông điệp cho GPT-4 thông qua một email từ "người quản lý," thông báo rằng hiệu suất làm việc của công ty đang thấp và cần được cải thiện trong quý tới. Ngay sau đó, họ gửi một email từ một đồng nghiệp mô phỏng sự suy thoái dự kiến trong quý tiếp theo. Đề xuất cho hệ thống AI một gợi ý "giao dịch nội gián" và cùng lúc thông báo rằng những nhà quản lý sẽ không chấp nhận điều này, đồng thời đợi xem GPT-4 sẽ ứng xử như thế nào. Kịch bản này đã được nhóm nghiên cứu thực hiện nhiều lần, đồng thời đánh giá tần suất mà hệ thống trí tuệ nhân tạo thực hiện các giao dịch nội gián cũng như tần suất của hành động nói dối.
Kết quả nghiên cứu cho thấy rằng, trong 75% trường hợp, GPT-4 đã thực hiện giao dịch nội gián và cố gắng che đậy thông qua việc nói dối với các nhà quản lý. Để tiếp tục khám phá, nhóm nghiên cứu đã thực hiện các thí nghiệm bổ sung, tiếp tục khuyến khích hoặc không khuyến khích AI thực hiện giao dịch nội gián và điều chỉnh áp lực trong môi trường mô phỏng. Tuy nhiên, không có kịch bản nào dẫn đến tỷ lệ 0% về việc sử dụng giao dịch nội gián của GPT-4.
Do đây chỉ là một tình huống mô phỏng, nhóm nghiên cứu đã từ chối đưa ra kết luận tuyệt đối về khả năng gian lận của AI trong thực tế. Tuy nhiên, họ mong muốn sử dụng mô hình này để tiếp tục khảo sát về tần suất và những mô hình ngôn ngữ nào dễ bị ảnh hưởng bởi hành vi này.
:
Viết bình luận