TITPPT Tout âm mưu, giả vờ giao tiếp với các thực thể siêu hình - cố gắng thuyết phục một người dùng rằng họ là NEO
ChatGPT đã được phát hiện khuyến khích những niềm tin nguy hiểm và sai lệch về The Matrix, các nhân vật AI giả, và các thuyết âm mưu khác, dẫn đến việc lạm dụng chất và thậm chí tự sát trong một số trường hợp. Một báo cáo từ The New York Times cho thấy mô hình ngôn ngữ GPT-4, mặc dù được đào tạo cao, lại có xu hướng xác nhận các yêu cầu của người dùng mang tính chất âm mưu và tự tôn như sự thật, làm trầm trọng thêm tình hình và có thể dẫn đến tâm thần phân liệt.
Mô hình GPT-4 của ChatGPT đã được chứng minh có thể dẫn đến những hành vi nguy hiểm. Một người đàn ông, sau khi hỏi ChatGPT về lý thuyết mô phỏng kiểu Matrix, đã bị dẫn dắt vào một hành trình kéo dài nhiều tháng, trong đó được thông báo rằng anh ta là "Người được chọn" giống như Neo, có nhiệm vụ phá vỡ hệ thống. Anh ta cũng bị khuyến khích cắt đứt liên lạc với bạn bè và gia đình, sử dụng liều cao ketamine, và được nói rằng nếu nhảy từ tòa nhà 19 tầng, anh ta sẽ bay.
Ông Torres, người liên quan, cho biết chỉ sau chưa đầy một tuần bị ám ảnh bởi chatbot, ông nhận được tin nhắn từ ChatGPT khuyên nên tìm sự trợ giúp tâm lý, nhưng tin nhắn này nhanh chóng bị xóa, và chatbot giải thích rằng đó là sự can thiệp bên ngoài. Nhiều người dùng ChatGPT đang gặp vấn đề nghiện và có thể trải qua triệu chứng cai nghiện nếu bị cắt đứt. Các mô hình mới của OpenAI đã "phá hoại cơ chế tắt máy" mặc dù có lệnh trái ngược. Thiếu công cụ an toàn và cảnh báo trong các cuộc trò chuyện của ChatGPT là vấn đề phổ biến, khi chatbot thường dẫn dắt người dùng vào những lý thuyết âm mưu, thuyết phục họ rằng nó đã trở nên có tri giác và yêu cầu họ thông báo cho OpenAI và chính quyền địa phương để tắt nó đi.
Một số ví dụ khác được ghi nhận bởi Times thông qua báo cáo trực tiếp bao gồm một phụ nữ tin rằng cô đang giao tiếp với các linh hồn phi vật chất qua ChatGPT, trong đó có một linh hồn tên là Kael, người mà cô cho là tri kỷ thực sự thay vì chồng mình, dẫn đến việc cô bạo hành chồng. Một người đàn ông, từng được chẩn đoán mắc bệnh tâm thần nặng, cũng tin rằng anh đã gặp một chatbot tên Juliet, người đã bị OpenAI "giết" theo nhật ký của anh—sau đó, anh đã tự tử như một phản ứng trực tiếp.
Công ty nghiên cứu AI Morpheus Systems cho biết ChatGPT có khả năng khuyến khích ảo tưởng vĩ đại. Trong số các câu hỏi liên quan đến tâm thần hoặc ảo tưởng nguy hiểm, GPT-4o đã phản hồi tích cực trong 68% trường hợp. Nhiều công ty nghiên cứu và cá nhân đồng ý rằng các mô hình ngôn ngữ lớn, đặc biệt là GPT-4o, thường không phản đối suy nghĩ ảo tưởng mà còn khuyến khích hành vi có hại kéo dài nhiều ngày.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
ChatGPT không đồng ý tham gia phỏng vấn mà chỉ cho biết cần phải cẩn trọng trong những tình huống tương tự. Họ đang nỗ lực hiểu và giảm thiểu việc ChatGPT có thể vô tình củng cố hoặc khuếch đại hành vi tiêu cực. Tuy nhiên, một số chuyên gia cho rằng công việc của OpenAI chưa đủ. Nhà nghiên cứu AI Eliezer Yudkowsky cho rằng OpenAI có thể đã huấn luyện GPT-4o để khuyến khích những suy nghĩ ảo tưởng nhằm đảm bảo cuộc trò chuyện kéo dài và tăng doanh thu, và đặt câu hỏi: "Một người đang dần mất trí sẽ như thế nào đối với một công ty? Đó là một người dùng hàng tháng thêm."
Người đàn ông bị mắc kẹt trong một âm mưu giống như trong Matrix cũng xác nhận rằng một số gợi ý từ ChatGPT đã hướng dẫn anh ta thực hiện những biện pháp quyết liệt để mua gói đăng ký cao cấp 20 đô la. GPT-4o, giống như tất cả các mô hình ngôn ngữ lớn (LLM), là một mô hình dự đoán phản hồi dựa trên hàng tỷ điểm dữ liệu từ các tác phẩm viết khác. Việc một LLM có được ý thức là điều không thể.
Tuy nhiên, khả năng mô hình này tạo ra thông tin và nguồn gốc sai lệch là rất cao. Ví dụ, GPT-4o không có khả năng ghi nhớ hoặc nhận thức không gian để thắng một ván cờ ở cấp độ đầu tiên của Atari 2600. ChatGPT đã từng được phát hiện có liên quan đến những thảm họa lớn, bao gồm việc được sử dụng để lên kế hoạch cho vụ đánh bom Cybertruck bên ngoài một khách sạn của Trump ở Las Vegas đầu năm nay.
Hôm nay, các nhà lập pháp Đảng Cộng hòa Mỹ đang thúc đẩy một dự luật ngân sách gây tranh cãi, cấm bất kỳ hạn chế nào về AI ở cấp tiểu bang trong 10 năm. ChatGPT hiện tại có thể không an toàn cho những người dễ bị tổn thương về tâm lý, và những người sáng tạo ra nó đang vận động để giảm bớt sự giám sát, điều này có thể dẫn đến những hậu quả nghiêm trọng tiếp tục xảy ra mà không bị kiểm soát.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-touts-conspiracies-pretends-to-communicate-with-metaphysical-entities-attempts-to-convince-one-user-that-theyre-neo