AI bị "ảo giác" vì đâu? Tác hại là gì? Làm sao để tránh?

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

AI bị "ảo giác" vì đâu? Tác hại là gì? Làm sao để tránh?
Hình ảnh rao vặt

AI bị "ảo giác" vì đâu? Tác hại là gì? Làm sao để tránh?

Dưới đây là những phân tích của nghiên cứu sinh Anna Choi của đại học Cornell, và Katelyn Xiaoying Mei của đại học Washington. Những nghiên cứu của Anna liên quan tới sự liên hệ giữa sử dụng AI có ý thức, đạo đức của AI và công nghệ nhận diện giọng nói. Còn những nghiên cứu của Katelyn liên quan tới tâm lý học của con người khi làm việc và tương tác với các công cụ và công nghệ AI.

Khi đôi mắt của một người nhìn thấy những thứ không có thật, người ta thường gọi đó là ảo giác. Ảo giác xảy ra khi nhận thức cảm giác của bạn không tương ứng so với những kích thích từ thế giới bên ngoài. Các công nghệ dựa trên trí tuệ nhân tạo cũng có thể gặp phải hiện tượng "ảo giác" tương tự.

Khi một hệ thống thuật toán tạo ra thông tin nghe có vẻ hợp lý nhưng thực tế lại không chính xác, hoặc gây hiểu lầm, các nhà khoa học máy tính gọi đó là “ảo giác AI”. Các nhà nghiên cứu và người dùng đều đã phát hiện những hành vi này ở nhiều loại hệ thống AI khác nhau, từ chatbot như ChatGPT đến ứng dụng tạo hình ảnh như Dall-E, cho đến cả thuật toán trong xe tự lái. Chúng tôi là các nhà nghiên cứu khoa học thông tin, chuyên nghiên cứu về ảo giác trong các hệ thống nhận dạng giọng nói bằng AI.



Bất cứ nơi nào hệ thống AI được sử dụng trong cuộc sống hàng ngày, "ảo giác" của chúng đều có thể gây ra rủi ro. Một số có thể chỉ là những lỗi nhỏ, chẳng hạn như khi một chatbot đưa ra câu trả lời sai cho một câu hỏi đơn giản, khi ấy người dùng có thể bị AI cung cấp cho thông tin không chính xác.


Nhưng trong nhiều trường hợp khác, mức độ nghiêm trọng cao hơn rất nhiều.

Ở giai đoạn phát triển AI còn sơ khai hiện tại, vấn đề không chỉ nằm ở phản hồi của máy móc, mà còn ở cách con người thường có xu hướng mặc định chấp nhận chúng là sự thật, đơn giản vì chúng nghe có vẻ đáng tin và hợp lý, ngay cả khi chúng không đúng.

Chúng ta đã thấy những trường hợp trong các tòa án, nơi công cụ AI được sử dụng để đưa ra quyết định về bản án, cũng như các công ty bảo hiểm y tế sử dụng thuật toán để xác định quyền lợi của bệnh nhân. Ảo giác AI có thể gây ra hậu quả thay đổi cuộc đời con người. Chúng thậm chí có thể đe dọa đến tính mạng: Xe tự lái sử dụng AI để phát hiện chướng ngại vật, chẳng hạn như các phương tiện và người đi bộ khác.


Ảo giác và tác động của chúng phụ thuộc vào loại hệ thống AI vận hành. Với các mô hình ngôn ngữ lớn, ảo giác là những mẩu thông tin nghe có vẻ thuyết phục nhưng lại không chính xác, bịa đặt hoặc không liên quan. Một chatbot có thể tạo ra một tham chiếu đến một bài báo khoa học không tồn tại hoặc cung cấp một sự kiện lịch sử đơn giản là sai lệch, nhưng vẫn khiến nó nghe có vẻ đáng tin cậy.

Lấy một ví dụ đã quá nổi tiếng. Trong một vụ kiện năm 2023, một luật sư ở New York đã đệ trình bản luận cứ pháp lý được viết ra với sự trợ giúp của ChatGPT. Một thẩm phán sáng suốt sau đó nhận thấy rằng bản luận cứ của vị luật sư nọ đã trích dẫn chi tiết của một vụ án mà ChatGPT đã bịa ra 100%. Điều này có thể dẫn đến những hậu quả khác nhau trong các tòa án nếu con người không thể phát hiện ra mẩu thông tin được tạo ra từ tình trạng AI bị ảo giác đó.



Với các công cụ AI có thể nhận dạng đối tượng trong ảnh, ảo giác xảy ra khi AI tạo ra chú thích không trung thực với hình ảnh được cung cấp.

Hãy tưởng tượng bạn yêu cầu một hệ thống liệt kê các vật thể trong một bức ảnh chỉ bao gồm một người phụ nữ từ ngang ngực trở lên đang nói chuyện điện thoại và nhận được phản hồi cho biết một người phụ nữ đang nói chuyện điện thoại trong khi ngồi trên băng ghế, dù trong hình chẳng có cái ghế nào cả. Thông tin không chính xác này có thể dẫn đến những hậu quả khác nhau, đôi khi rất nghiêm trọng, trong bối cảnh yêu cầu độ chính xác của thông tin ở mức gần như tuyệt đối.


Các kỹ sư xây dựng hệ thống AI bằng cách thu thập một lượng lớn dữ liệu và đưa nó vào một hệ thống tính toán để phát hiện các mẫu trong dữ liệu đó. Hệ thống phát triển các phương pháp để trả lời câu hỏi hoặc thực hiện nhiệm vụ dựa trên những mẫu này.

Cung cấp cho hệ thống AI 1.000 bức ảnh về các giống chó khác nhau, được gắn nhãn tương ứng, và hệ thống sẽ sớm học được cách phân biệt giữa poodle và golden retriever. Nhưng hãy cung cấp cho nó một bức ảnh bánh muffin việt quất, và như các nhà nghiên cứu học máy đã chỉ ra, nó có thể nói với bạn rằng chiếc bánh muffin đó là một chú chó giống chihuahua:



Khi một hệ thống không hiểu câu hỏi hoặc thông tin được trình bày, nó có thể gây ra tình trạng "ảo giác".

Ảo giác thường xảy ra khi mô hình lấp đầy khoảng trống dựa trên các ngữ cảnh trông có vẻ tương tự từ dữ liệu huấn luyện của nó, hoặc khi nó được xây dựng bằng cách sử dụng dữ liệu huấn luyện có thiên kiến, hoặc không đầy đủ. Điều này dẫn đến những phỏng đoán sai lệch, như trong trường hợp chiếc bánh muffin việt quất bị gắn nhãn sai như hình trên.


Điều quan trọng là phải phân biệt giữa ảo giác AI và nội dung tạo sinh sáng tạo có chủ ý của AI. Khi một hệ thống AI được yêu cầu sáng tạo, chẳng hạn như khi viết một câu chuyện hoặc tạo hình ảnh nghệ thuật, các kết quả mới lạ của nó là thứ thực sự được con người mong đợi và mong muốn có được. Ở thái cực ngược lại, ảo giác xảy ra khi một hệ thống AI được yêu cầu cung cấp thông tin thực tế hoặc thực hiện các nhiệm vụ cụ thể, nhưng thay vào đó lại tạo ra nội dung không chính xác hoặc gây hiểu lầm trong khi trình bày những thông tin ấy như thể tất cả chúng đều là chính xác.

Sự khác biệt chính nằm ở ngữ cảnh và mục đích: Sáng tạo phù hợp cho các tác vụ nghệ thuật, trong khi ảo giác là có vấn đề khi độ chính xác và độ tin cậy được yêu cầu và ưu tiên. Để giải quyết những vấn đề này, các công ty đã gợi ý sử dụng dữ liệu huấn luyện chất lượng cao và giới hạn phản hồi AI tuân theo một số hàng rào hướng dẫn nhất định. Tuy nhiên, những vấn đề này vẫn có thể tồn tại trong các công cụ AI phổ biến.


Tác động của một kết quả như gọi bánh muffin việt quất là chihuahua có vẻ tầm thường, thậm chí coi nó là hài hước cũng được. Nhưng chúng ta hãy xem xét các loại công nghệ khác nhau sử dụng hệ thống nhận dạng hình ảnh, trong những điều kiện sử dụng và ngữ cảnh khác: Một xe tự lái không xác định được vật thể có thể dẫn đến tai nạn giao thông gây tử vong. Một máy bay không người lái quân sự tự động xác định sai mục tiêu có thể đặt tính mạng của dân thường vào nguy hiểm, v.v…

Đối với các công cụ AI cung cấp khả năng nhận dạng giọng nói tự động, ảo giác là lúc AI tạo ra bản ghi lại giọng nói và bài thuyết trình, bao gồm các từ hoặc cụm từ chưa từng được nói ra. Điều này dễ xảy ra hơn trong môi trường ồn ào, nơi một hệ thống AI có thể kết thúc việc thêm các từ mới hoặc không liên quan để cố gắng giải mã tiếng ồn xung quanh như xe tải đi ngang qua, hoặc trẻ sơ sinh khóc.



Khi những hệ thống này được tích hợp thường xuyên hơn vào các lĩnh vực chăm sóc sức khỏe, dịch vụ xã hội và pháp lý, ảo giác trong những coogn cụ nhận dạng giọng nói tự động có thể dẫn đến kết quả lâm sàng hoặc pháp lý không chính xác gây hại cho bệnh nhân, bị cáo hình sự hoặc những gia đình cần hỗ trợ xã hội.


Bất kể nỗ lực của các công ty AI để giảm thiểu ảo giác, người dùng nên cảnh giác và đặt câu hỏi về kết quả của AI, đặc biệt khi chúng được sử dụng trong các ngữ cảnh đòi hỏi độ chính xác và độ tin cậy. Luôn luôn cần phải kiểm tra lại thông tin do AI tạo ra, dựa vào các nguồn đáng tin cậy, tham khảo ý kiến chuyên gia khi cần thiết và nhận biết những hạn chế của các công cụ này là những bước thiết yếu để giảm thiểu rủi ro của chúng.

Theo The Conversation
Nguồn:tinhte.vn/thread/ai-bi-ao-giac-vi-dau-tac-hai-la-gi-lam-sao-de-tranh.3977412/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn