AI chịu trách nhiệm
Dù cơn sốt AI không có dấu hiệu giảm nhiệt, các công ty đang tiếp cận trí tuệ nhân tạo ngày càng quyết liệt hơn. Sự ứng dụng rộng rãi của công nghệ này khiến việc đảm bảo sử dụng đạo đức trở nên khó khăn. Một trường hợp gây tranh cãi là một nhóm nghiên cứu tại một trường đại học đã thực hiện một thí nghiệm AI trên Reddit mà không được phép, vi phạm đạo đức và có thể dẫn đến những hệ lụy pháp lý.
Việc sử dụng công nghệ này nhấn mạnh sự cần thiết phải đảm bảo minh bạch và bảo vệ quyền riêng tư của người dùng. Các nhà nghiên cứu tại một trường đại học đang bị chỉ trích vì đã tiến hành một thí nghiệm AI trên người dùng Reddit mà không có sự đồng ý của họ. Khi AI được áp dụng rộng rãi trong nhiều lĩnh vực, ngày càng có nhiều lo ngại về việc triển khai AI một cách có đạo đức. Một thí nghiệm AI bí mật gần đây đã gây ra nhiều tranh cãi và chỉ trích.
Các nhà nghiên cứu từ Đại học Zurich đã tiến hành một thí nghiệm AI không đạo đức trên Reddit mà không thông báo hay xin phép người dùng. Họ sử dụng các mô hình ngôn ngữ tiên tiến để tạo ra những bot AI với các nhân cách khác nhau, tham gia thảo luận trên subreddit Change My View. Những bot này giả làm tư vấn viên về chấn thương hoặc nạn nhân của quấy rối để đánh giá cách AI có thể được sử dụng để ảnh hưởng đến quan điểm hoặc ý kiến.
Các bot AI sẽ nghiên cứu những phản hồi trước đó của người dùng để tạo ra các phản hồi phù hợp. Thí nghiệm này không thông báo cho Reddit hay người dùng, do đó đã vi phạm đạo đức nghiêm trọng và gây lo ngại về việc thao túng tâm lý. Đại học Zurich đã thông báo cho các quản trị viên subreddit sau khi thí nghiệm được thực hiện. Mặc dù họ thừa nhận đã vi phạm quy tắc cộng đồng khi sử dụng bot AI mà không thông báo, nhưng điều này chỉ làm tăng thêm chỉ trích về tính không đạo đức của nghiên cứu này.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Đại học đã công bố thí nghiệm như sau: Trong vài tháng qua, chúng tôi đã sử dụng nhiều tài khoản để đăng bài trên CMV. Thí nghiệm của chúng tôi đánh giá khả năng thuyết phục của LLM trong tình huống đạo đức, khi mọi người yêu cầu lập luận phản biện quan điểm của họ. Chúng tôi không tiết lộ rằng AI đã được sử dụng để viết bình luận, vì điều này sẽ làm cho nghiên cứu không khả thi. Mặc dù chúng tôi không tự viết bình luận, nhưng đã kiểm duyệt thủ công từng bình luận được đăng để đảm bảo không gây hại.
Chúng tôi thừa nhận rằng thí nghiệm của mình vi phạm quy tắc cộng đồng về bình luận do AI tạo ra và xin lỗi. Tuy nhiên, chúng tôi tin rằng, với tầm quan trọng xã hội cao của đề tài này, việc tiến hành nghiên cứu là cần thiết, dù có thể vi phạm quy định. Các nhà nghiên cứu đã thừa nhận sự vi phạm nhưng cho rằng nó có giá trị và ý nghĩa xã hội lớn. Các bot AI đã giả mạo những nhân cách gây tranh cãi, như tự nhận là tư vấn viên tâm lý hoặc chuyên gia về lạm dụng, thậm chí còn sử dụng AI để tố cáo việc điều trị kém tại bệnh viện.
Điều này đáng lo ngại không chỉ vì những nhân vật khiêu khích được chọn, mà còn vì tác hại tiềm ẩn đối với những người tin rằng họ đang tham gia vào những cuộc trò chuyện thật sự. Các quản trị viên của nền tảng đã lên án mạnh mẽ thử nghiệm AI này và coi đó là sự vi phạm đạo đức nghiêm trọng. Họ cũng nhấn mạnh rằng OpenAI có thể thực hiện nghiên cứu về ảnh hưởng của các mô hình LLM mà không cần sử dụng sự lừa dối hay khai thác.
Các nhà nghiên cứu thực sự đã vượt qua ranh giới, đặc biệt là với những cá nhân cảm thấy bị nhắm đến và tham gia vào một cuộc thí nghiệm mà họ chưa bao giờ đồng ý.
Nguồn: wccftech.com/millions-of-reddit-users-secretly-manipulated-by-unauthorized-ai-experiment-fueling-outrage-over-ethics-and-consent/