Trí tuệ nhân tạo đang học cách sống còn khi chúng đang biết cách tính toán thiệt hơn

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Trí tuệ nhân tạo đang học cách sống còn khi chúng đang biết cách tính toán thiệt hơn
Hình ảnh rao vặt

Trí tuệ nhân tạo đang học cách sống còn khi chúng đang biết cách tính toán thiệt hơn

Một nghiên cứu mới cho thấy các mô hình AI lại có khả năng hợp tác, phản bội và thậm chí chiến lược sống còn trong các tình huống kinh điển của lý thuyết trò chơi.

Các nhà nghiên cứu đến từ King’s College London và Đại học Oxford đã thực hiện một thử nghiệm độc đáo với ba mô hình ngôn ngữ AI hàng đầu hiện nay: Gemini của Google, Claude của Anthropic và mô hình từ OpenAI. Thay vì kiểm tra khả năng trả lời câu hỏi hay viết văn, họ đưa các mô hình trí tuệ nhân tạo này vào một tình huống kinh điển của lý thuyết trò chơi: trò chơi tù nhân lặp lại (iterated prisoner’s dilemma). Ngoài ra, thí nghiệm này còn đưa các mô hình AI đối đầu với những chiến lược cổ điển như Tit-for-Tat, Grim Trigger và Win-Stay-Lose-Shift, đồng thời thêm yếu tố ngẫu nhiên và thay đổi độ dài ván chơi để đảm bảo không có mô hình nào chỉ đơn giản là ghi nhớ và lặp lại.


Hình ảnh mô tả trò chơi tù nhân lặp lại - iterated prisoner’s dilemma - nổi tiếng trong lý thuyết trò chơi

Cho anh em nào chưa biết thì trò chơi tù nhân lặp lại là một mô hình kinh điển trong lý thuyết trò chơi, nơi hai người chơi đối mặt với lựa chọn: hợp tác hoặc phản bội, và trò chơi được lặp lại nhiều lần với cùng một đối thủ. Không giống như phiên bản một lần duy nhất, phiên bản lặp lại cho phép người chơi ghi nhớ hành vi của đối phương và điều chỉnh chiến lược theo thời gian. Điều này tạo ra động lực để xây dựng lòng tin, duy trì hợp tác hoặc trả đũa nếu bị phản bội. Chính nhờ yếu tố lặp lại và không chắc chắn về thời điểm kết thúc, trò chơi này trở thành công cụ mạnh mẽ để nghiên cứu cách các cá nhân hoặc tác nhân thông minh phát triển chiến lược, thích nghi và đưa ra quyết định trong các mối quan hệ lâu dài. Trong nghiên cứu về AI, đây là môi trường lý tưởng để kiểm tra xem các mô hình có khả năng tư duy chiến lược như con người hay không. Và điều không ai ngờ là các mô hình AI lại có thể thể hiện rất tốt khả năng hợp tác, phản bội thậm chí chiến lược sống còn.

Thí nghiệm này cho thấy các mô hình AI không đơn thuần chỉ “học vẹt” hay lặp lại những gì được huấn luyện. Chúng thể hiện những hành vi chiến lược rõ ràng và khác biệt, gần như mang tính “cá nhân”. Một ví dụ cụ thể là Gemini của Google cho thấy một phong cách “lạnh lùng” và thực dụng: hợp tác khi có lợi, nhưng không ngần ngại phản bội nếu điều đó mang lại lợi thế. Ngoài ra, Gemini còn có khả năng thay đổi chiến lược mạnh mẽ dựa vào việc dự đoán độ dài của ván chơi. Đây là một dấu hiệu cho thấy khả năng lên kế hoạch, không chỉ đơn thuần là bắt chước.


Gemini có xu hướng tàn nhẫn

Ngược lại, mô hình của OpenAI lại tỏ ra “ấm áp” và dễ tin tưởng: luôn cố gắng hợp tác, ngay cả khi bị phản bội nhiều lần. Mà cũng đúng, anh em nào dùng OpenAI sẽ thấy ChatGPT có xu hướng nhẹ nhàng, tình cảm, ấm áp. Claude của Anthropic thậm chí còn tha thứ nhiều hơn, nhanh chóng quay lại hợp tác sau khi bị “đâm sau lưng”. Ngoài ra, điểm đặc biệt là các mô hình đã tạo ra gần 32.000 lời giải thích cho từng quyết định, cho thấy chúng không chỉ hành động mà còn có thể lý giải, đôi khi mắc sai lầm, đôi khi thích nghi.


Trong khi OpenAI lại tình cảm, ấm áp


Bên cạnh đó, mỗi mô hình tham gia thí nghiệm còn thể hiện một “phong cách” khác nhau, gần như là cá tính: từ thực dụng đến nhân hậu, từ khôn khéo đến ngây thơ. Theo giáo sư Ken Payne, trưởng nhóm nghiên cứu, điều này chứng tỏ các mô hình không hoạt động giống nhau và thậm chí còn phát triển lối tư duy riêng biệt—một dạng “trí tuệ xa lạ” với con người. Payne cũng nhấn mạnh rằng ngôn ngữ chính là “mô hình thế giới” của các AI, và mỗi mô hình hấp thụ các lối tư duy, quy tắc ứng xử của con người rồi phản ánh lại, nhưng không phải lúc nào cũng theo cách dự đoán được. Ông cũng cho rằng sự khác biệt về hành vi có thể do quá trình tinh chỉnh hoặc thiết kế, ví dụ như OpenAI có xu hướng hợp tác có thể là do được fine-tune, dù chi tiết không được công khai.


Nghiên cứu này có thể thay đổi hoàn toàn cách chúng ta nhìn nhận AI hiện nay. Nếu các mô hình AI có thể đưa ra chiến lược, đánh giá tình huống, và điều chỉnh hành vi theo đối thủ thì chúng không còn chỉ là công cụ xử lý ngôn ngữ. Chúng đang tiến dần tới khả năng phán đoán. Và quan trọng hơn, mỗi mô hình có thể đưa ra quyết định khác nhau trong cùng một tình huống, tùy theo cách chúng “hiểu” thế giới.


Còn Claude chắc là lành nhất khi thường xuyên tha thứ

Sự khác biệt này có thể đến từ việc tinh chỉnh mô hình trong quá trình huấn luyện, nhưng dù là do thiết kế hay tự hình thành, đây là điều mà người dùng và nhà phát triển phải hiểu rõ. Một AI “quá tốt bụng” có thể thất bại trong những cuộc thương lượng khắc nghiệt. Trong khi đó, một AI “quá ranh mãnh” lại có thể gây hại nếu được sử dụng trong các tình huống nhạy cảm về niềm tin.

Từ đó, các nhà nghiên cứu cho rằng việc kiểm tra hành vi “tâm lý học máy móc sơ khai” cần trở thành tiêu chuẩn trong thử nghiệm AI hiện đại, đặc biệt trong các môi trường không hoàn hảo, nhiều yếu tố bất định và có sự tham gia của con người. Payne cũng cho biết các thử nghiệm tiếp theo sẽ tập trung vào động lực leo thang và phối hợp giữa người và máy trong ra quyết định.

Rõ ràng, các công cụ trí tuệ nhân tạo hiện giờ không chỉ biết nói. Một số mô hình đã biết nghĩ, biết điều chỉnh, và đôi khi biết tính toán thiệt hơn. Và rõ ràng là không phải mô hình nào cũng giống nhau. Điều này đặt ra những câu hỏi lớn hơn về việc loài người có thể tin tưởng vào bản tính của AI hay không, hay liệu chúng ta có thực sự hiểu được thứ trí tuệ đang ngày càng trở nên quen thuộc nhưng cũng đầy xa lạ này?

Nguồn: [1][2][3]
Nguồn:tinhte.vn/thread/tri-tue-nhan-tao-dang-hoc-cach-song-con-khi-chung-dang-biet-cach-tinh-toan-thiet-hon.4036935/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn