Thử nghiệm lâm sàng đầu tiên, ứng dụng chatbot AI tạo sinh để thực hiện trị liệu cho thấy, nó có hiệu quả tương đương với những đợt trị liệu của con người, giúp đỡ cho những tình nguyện viên bị trầm cảm, lo âu hoặc có nguy cơ phát triển chứng rối loạn ăn uống.
Tuy nhiên, kết quả này không phải là một sự chấp thuận cho hàng chục công ty đang quảng bá các công nghệ sử dụng máy móc thay thế cho các nhà tâm lý học, trong một ngành còn quá nhiều rủi ro về pháp lý và khoa học.
Một nhóm nghiên cứu do các nhà tâm thần học và tâm lý học tại trường y khoa Geisel của Đại học Dartmouth đã phát triển được một công cụ chatbot AI có tên là Therabot. Kết quả nghiên cứu đã được công bố vào ngày 27/3 trên NEJM AI, một tạp chí thuộc New England Journal of Medicine.
Anh em ngay bây giờ có thể dùng thử Therabot tại đây: https://www.trytherabot.com/
Nhiều công ty công nghệ đã xây dựng các công cụ AI phục vụ cho trị liệu, với lời hứa hẹn rằng mọi người có thể trò chuyện với bot thường xuyên hơn, với chi phí rẻ hơn so với việc gặp gỡ một chuyên gia trị liệu tâm lý được đào tạo bài bản, đồng thời khẳng định phương pháp nói chuyện với máy móc này là an toàn và hiệu quả.
Nhiều nhà tâm lý học và bác sĩ chuyên khoa tâm thần đã chia sẻ tầm nhìn này. Nhưng cùng lúc họ cũng lưu ý rằng ít hơn một nửa số người mắc các chứng rối loạn tâm thần nhận được trị liệu chuyên nghiệp… Và trong số đó, mỗi tuần các bệnh nhân cũng chỉ được tiến hành trị liệu 45 phút đồng hồ. Các nhà nghiên cứu đã cố gắng xây dựng công nghệ để các giải pháp trị liệu có thể tiếp cận được tới số đông, nhưng họ bị cản trở bởi hai vấn đề.
Thứ nhất, một con bot AI trị liệu nếu đưa ra những câu trả lời sai lầm do tình trạng ảo giác AI có thể gây ra tác hại cực kỳ nghiêm trọng. Đó là lý do tại sao nhiều nhà nghiên cứu đã xây dựng các bot bằng cách lập trình rõ ràng: phần mềm lấy từ một kho dữ liệu phản hồi được phê duyệt hữu hạn, chẳng hạn như trường hợp của Eliza, một chương trình máy tính đóng vai nhà tâm lý học, được tạo vào những năm 1960.
Tuy nhiên, việc ứng dụng gói dữ liệu huấn luyện quy mô hẹp khiến việc trò chuyện với chatbot nhạt nhẽo hơn, bệnh nhân nhanh chóng mất hứng thú để trị liệu.
Và vấn đề thứ hai là những đặc điểm cốt lõi của các mối quan hệ trị liệu tích cực, mục tiêu chung và sự hợp tác giữa bệnh nhân và chuyên gia, rất khó để tái tạo bằng máy móc và chatbot.
Năm 2019, khi các mô hình ngôn ngữ lớn như GPT của OpenAI bắt đầu được hình thành, các nhà nghiên cứu tâm lý học tại Dartmouth đã nghĩ rằng AI tạo sinh có thể giúp vượt qua những rào cản này. Họ bắt tay vào xây dựng một mô hình AI được đào tạo chuyên biệt, để đưa ra các phản hồi dựa trên bằng chứng khoa học.
Ban đầu họ thử nghiệm xây dựng nó từ các cuộc trò chuyện tổng quát về sức khỏe tâm thần, lấy từ các diễn đàn trực tuyến. Sau đó, họ chuyển sang huấn luyện bằng các bản ghi chép với thời lượng hàng nghìn giờ đồng hồ ở các buổi trị liệu thực tế với các nhà tâm lý trị liệu chuyên nghiệp.
Nick Jacobson, phó giáo sư khoa học dữ liệu sinh y và tâm thần tại đại học Dartmouth, chủ biên của cuộc nghiên cứu đã chia sẻ trong một cuộc phỏng vấn: “Chúng tôi nhận được rất nhiều câu trả lời ỡm ờ vô giá trị của chatbot AI, bắt chước các chuyên gia trị liệu nói ‘ừ hứ’ lúc nghe bệnh nhân chia sẻ, và sau đó là những câu trả lời như ‘Các vấn đề của bạn bắt nguồn từ mối quan hệ của bạn với mẹ’. Đó thực sự là những khuôn mẫu sáo rỗng điển hình của quá trình trị liệu, hoàn toàn không phải những câu trả lời mang tính xây dựng và có giá trị mà chúng tôi muốn."
Không hài lòng với kết quả này, các nhà khoa học bắt tay vào xây dựng các bộ dữ liệu tùy chỉnh dựa trên các phương pháp đã được chứng minh bằng thực tế, đây cũng là yếu tố quan trọng đưa vào mô hình. Sự kỹ lưỡng này trái ngược với nhiều bot trị liệu AI hiện có trên thị trường. Chúng có thể chỉ là những biến thể nhỏ của các mô hình nền tảng như Llama của Meta, được đào tạo chủ yếu dựa trên các cuộc trò chuyện trực tuyến. Điều này gây ra vấn đề trong việc trị liệu, đặc biệt đối với các chủ đề như rối loạn ăn uống.
Phó giáo sư Jacobson nói: "Nếu bạn nói rằng bạn muốn giảm cân, chúng sẽ sẵn sàng hỗ trợ bạn làm điều đó, ngay cả khi bạn có thể đã có trọng lượng thấp từ trước." Một nhà trị liệu chuyên nghiệp sẽ không làm vậy.
Để kiểm tra khả năng của chatbot AI trị liệu, các nhà nghiên cứu đã tiến hành một thử nghiệm lâm sàng kéo dài 8 tuần với 210 tình nguyện viên. Họ đều đang mắc phải những triệu chứng của trầm cảm hoặc
rối loạn lo âu tổng quát hoặc có nguy cơ cao mắc rối loạn ăn uống. Khoảng một nửa số người tham gia được tiếp cận với Therabot, và một nhóm đối chứng thì không. Người tham gia phản hồi các câu hỏi từ AI và khởi xướng cuộc trò chuyện, trung bình khoảng 10 tin nhắn mỗi ngày.
Những người tham gia bị trầm cảm đã giảm 51% triệu chứng, là kết quả tốt nhất trong nghiên cứu. Những người bị rối loạn lo âu đã giảm 31% triệu chứng, và những người có nguy cơ mắc rối loạn ăn uống đã giảm 19% triệu chứng, những lo lắng liên quan đến hình ảnh cơ thể và cân nặng. Các số liệu này dựa trên việc tự báo cáo thông qua khảo sát, một phương pháp dù không hoàn hảo nhưng vẫn là một trong những công cụ đo đạc tốt nhất mà các nhà nghiên cứu có.
Jacobson nói rằng kết quả này tương đương với những gì người ta thấy trong các thử nghiệm lâm sàng có kiểm soát ngẫu nhiên về trị liệu, bằng cách sử dụng 16 giờ điều trị do các chuyên gia thực hiện. Nhưng thử nghiệm với Therabot đã đạt được mục tiêu đề ra chỉ với khoảng một nửa thời gian.
"Tôi đã làm việc trong lĩnh vực liệu pháp kỹ thuật số trong một thời gian dài và tôi chưa từng thấy mức độ tương tác kéo dài và bền vững ở mức này," ông nói.
Jean-Christophe Bélisle-Pipon, phó giáo sư về đạo đức sức khỏe tại Đại học Simon Fraser, người đã viết các phân tích về các bot trị liệu AI nhưng không tham gia vào nghiên cứu, cho rằng kết quả rất ấn tượng. Nhưng ông lưu ý rằng, giống như bất kỳ thử nghiệm lâm sàng nào khác, nó không hẳn sẽ là cách điều trị tâm lý mà AI sẽ hoạt động trong thế giới thực: “Vẫn còn lâu nữa, chúng ta mới có được sự chấp thuận từ phía các cơ quan quản lý để triển khai AI rộng rãi về mặt lâm sàng.”
Một vấn đề của chatbot AI là sự giám sát cần có khi triển khai rộng rãi công nghệ này. Trong giai đoạn đầu của thử nghiệm, Jacobson nói rằng ông đã trực tiếp giám sát tất cả các tin nhắn đến từ những người tình nguyện tham gia thử nghiệm lâm sàng, để theo dõi các phản hồi gây rối tiềm ẩn từ chatbot. Nếu các bot AI trị liệu tâm lý lúc nào cũng cần tới sự giám sát này, chúng sẽ không thể tiếp cận được nhiều người hơn.
Jacobson cho rằng, kết quả nghiên cứu này hoàn toàn không đồng nghĩa với việc chứng minh tiềm năng của toàn bộ ngành công nghiệp trị liệu tâm lý bằng AI đang phát triển rất mạnh hiện nay.
“Ngược lại thì có.” Ông cảnh báo rằng hầu hết các công ty và startup dường như không đào tạo mô hình của họ dựa trên các phương pháp và dữ liệu khoa học đã được chứng minh thực tế, chẳng hạn như liệu pháp hành vi nhận thức, và có khả năng cũng chẳng sử dụng một đội ngũ các nhà nghiên cứu được đào tạo chuyên biệt để giám sát các tương tác giữa máy móc và bệnh nhân. "Tôi rất lo ngại về ngành công nghiệp này và chúng ta đang phát triển quá nhanh, mà không thực sự đánh giá nó đúng mức," ông nói thêm.
Theo phó giáo sư Jacobson, khi các trang web trị liệu tâm lý bằng AI tự quảng cáo là cung cấp giải pháp trị liệu trong một bối cảnh lâm sàng hợp pháp, điều đó có nghĩa là chúng phải chịu trách nhiệm trước cơ quan quản lý Thực phẩm và Dược phẩm (FDA). Cho đến nay, FDA chưa đưa ra hình phạt đối với những trang web như vậy. Theo vị phó giáo sư này, nếu FDA làm mạnh tay, “có thể chẳng có trang web trị liệu AI nào được phép hoạt động như bây giờ cả,” vì họ sẽ phải cung cấp bằng chứng lâm sàng chứng minh chatbot AI thực sự giúp ích được những người rối loạn tâm lý, và được bình duyệt bởi các nhà khoa học.
Phó giáo sư Bélisle-Pipon chỉ ra rằng, nếu các liệu pháp kỹ thuật số này không được phê duyệt và tích hợp vào hệ thống chăm sóc sức khỏe và bảo hiểm, khả năng tiếp cận với mọi người của các công cụ đầy tiềm năng này sẽ bị ảnh hưởng đáng kể. Và rồi những người thực sự cần tới hỗ trợ tâm lý, có thể được hưởng lợi từ những chatbot AI được phát triển nghiêm túc sẽ phải chuyển qua dùng những giải pháp được quảng cáo rộng rãi nhưng không đảm bảo. Trong trường hợp tệ nhất, những người bị trầm cảm hay rối loạn lo âu sẽ tìm tới những kết nối độc hại với chatbot AI thông thường, lầm tưởng những cuộc trò chuyện với ChatGPT hay Gemini là trị liệu tâm lý.
Để củng cố cho quan điểm của vị phó giáo sư, gần đây OpenAI đã có một nghiên cứu khoa học, chứng minh rằng việc con người tương tác với mô hình AI có tác động thật sự tới sức khỏe tâm lý và cảm xúc, cho dù đó là tích cực hay tiêu cực.
Theo MIT Technology ReviewNguồn:tinhte.vn/thread/lan-dau-tien-chatbot-ai-duoc-dung-de-dieu-tri-chung-tram-cam-va-lo-au-cua-con-nguoi.4012444/