Cuộc gọi lừa đảo do trí tuệ nhân tạo (AI) đang đe dọa ngày càng tăng. Công nghệ này đang bị lợi dụng để tạo ra cuộc gọi mạo danh khó phân biệt.
Theo báo cáo của Ủy ban Thương mại Liên bang Mỹ (FTC), vào năm 2022, các vụ lừa đảo mạo danh đã gây thiệt hại lên đến 2,6 tỉ USD. Với sự phát triển của nhiều công nghệ mới, các hình thức lừa đảo mạo danh ngày càng trở nên tinh vi hơn. Vào tháng 3, FTC đã thông báo rằng những kẻ lừa đảo đã bắt đầu áp dụng trí tuệ nhân tạo (AI) để tạo ra các tình huống khẩn cấp, nhằm thuyết phục nạn nhân rằng người thân của họ đang gặp nạn, để lừa đảo chiếm đoạt tiền hoặc thông tin cá nhân.
Theo cuộc khảo sát tháng 4 của McAfee đối với người trưởng thành ở 7 quốc gia, 25% người đã từng gặp lừa đảo bằng giọng nói AI, trong khi 15% thông báo người quen của họ cũng từng mắc phải tình huống tương tự. Việc kết nối internet và trả một khoản phí nhỏ đã giúp cho các kẻ xấu có thể sử dụng AI để gian lận. Theo báo cáo của McAfee, 3 giây âm thanh của đối tượng đủ để sao chép giọng nói.
Theo thông tin từ trang Business Insider, Eddie Cumberbatch, một TikToker 19 tuổi, đã bất ngờ khi nhận được cuộc gọi từ bố hỏi về việc anh có bị tai nạn xe hơi ở Chicago (Mỹ) hay không. Điều đáng chú ý là Eddie không từng lái xe trong 6 tháng qua và không sở hữu bất kỳ chiếc xe nào tại Chicago.
Sau khi bố giải thích, Eddie nhận ra rằng có một kẻ mạo danh đã thông báo với gia đình về vụ tai nạn giao thông để lừa tiền. May mắn, bố anh nghi ngờ ngay cuộc gọi và liên hệ với con trai để xác minh, phát hiện rằng kẻ xấu đã sử dụng giọng nói được tạo bằng Trí Tuệ Nhân Tạo để đánh lừa gia đình Cumberbatch.
Eddie Cumberbatch, một người sáng tạo trực tuyến có hơn 100.000 người theo dõi trên TikTok, biết rằng các tài khoản giả mạo sẽ không tránh khỏi việc mô phỏng anh. Trong một ngày tồi tệ trước khi bị gọi điện lừa đảo, một tài khoản giả mạo của Eddie đã xuất hiện trên Instagram và bắt đầu nhắn tin cho gia đình và bạn bè của anh.
Eddie, lo lắng trước nguy cơ bị kẻ lừa đảo sử dụng trí tuệ nhân tạo để sao chép giọng nói của mình, đã tổ chức cuộc gọi cho các thành viên trong gia đình để cảnh báo họ về mối đe dọa này và chia sẻ trải nghiệm của mình qua một video trên TikTok nhằm tăng cường nhận thức về vấn đề.
Trong khi Eddie và gia đình anh ấy có khả năng tránh được các trò lừa đảo, hậu quả của những kẻ gian lận được hỗ trợ bởi công nghệ AI lại không như vậy. Khi công nghệ AI trở nên phổ biến, những hình thức lừa đảo này sẽ trở nên khó phát hiện hơn.
Theo trang web của FTC, các trường hợp lừa đảo có thể bao gồm giả làm người yêu, nhân viên IRS, kỹ thuật viên máy tính và thành viên gia đình. Phần lớn các vụ lừa đảo thường xảy ra qua điện thoại, nhưng cũng có khả năng diễn ra trên mạng xã hội, qua tin nhắn hoặc email.
Khi nhận được cuộc gọi cấp cứu giả mạo, kỹ sư phần mềm tại Google, Richard Mendelstein, đã chuyển khoản 4.000 USD nhằm "giải cứu" con gái của mình. Sau khi nhận ra mình đã bị lừa, Mendelstein may mắn biết rằng con gái của mình vẫn an toàn tại trường suốt thời gian qua.
Các trường hợp lừa đảo bắt cóc ảo thường sử dụng bản ghi âm giọng nói phù hợp với độ tuổi và giới tính của con cái nạn nhân, nhằm vào các bậc cha mẹ hoảng sợ khi nghe thấy âm thanh của một đứa trẻ đang sợ hãi, mặc dù giọng nói đó không hoàn toàn phù hợp. Tuy nhiên, với công nghệ AI, việc phân biệt giọng nói trở nên ngày càng khó khăn hơn.
The Washington Post reported in March that a Canadian couple was scammed out of $21,000 after hearing a voice that sounded like their son, which was actually generated by AI. In another case this year, scammers replicated the voice of a 15-year-old girl and pretended to be kidnappers demanding a ransom of $1 million.
The majority of us believe that we can instantly recognize the voice of a family member. However, a study by McAfee reveals that about 70% of adults lack confidence in distinguishing between a human voice duplication and a real voice. A 2019 research shows that the brain does not perceive significant differences between a real voice and a computer-generated voice.
Theo McAfee, có một xu hướng ngày càng tăng về việc cung cấp giọng nói thật của mình cho kẻ lừa đảo, với 53% người trưởng thành chia sẻ dữ liệu giọng nói của họ trực tuyến hàng tuần. Đồng thời, McAfee đã phát hiện ra rằng hơn 1/3 nạn nhân đã mất hơn 1.000 USD trong các vụ lừa đảo bằng trí tuệ nhân tạo, trong đó có 7% mất hơn 5.000 USD. Theo báo cáo của FTC, nạn nhân của các vụ lừa đảo mạo danh đã mất trung bình 748 USD trong quý 1/2023.
The technology director of McAfee, Steve Grobman, emphasized that one of the most important things to note is the advancements of AI this year have brought this technology to a wider audience, including truly enabling scalability within the user community.
"Tội phạm mạng có thể tận dụng trí tuệ nhân tạo AI để tạo ra giọng nói giả mạo và deepfake một cách dễ dàng hơn trước. Thay vì mất 3 tháng trong quá trình "hẹn hò" trực tuyến và chờ đợi đối tượng rơi vào bẫy, họ có thể thực hiện vụ lừa đảo bằng âm thanh giả mạo chỉ trong 10 phút và đạt được kết quả tương tự."
Các trường hợp lừa đảo trước đây thường dựa vào khả năng diễn xuất của kẻ lừa đảo hoặc tính cả tin của nạn nhân. Tuy nhiên, hiện nay, công nghệ AI đã thay thế hầu hết công việc đó. Các nền tảng âm thanh AI phổ biến như Murf, Resemble và ElevenLabs cho phép người dùng tạo ra giọng nói chân thực thông qua việc chuyển đổi văn bản thành giọng nói.
Các công cụ này không chỉ dễ sử dụng mà còn miễn phí. Kẻ lừa đảo chỉ cần tải tệp âm thanh lên trang web để AI mô phỏng giọng nói của họ.
Đối với các cuộc gọi lừa đảo, nạn nhân thường thiếu thông tin cần thiết để hỗ trợ cảnh sát trong quá trình điều tra. Hơn nữa, các kẻ xấu thường hoạt động từ các địa điểm khác nhau trên toàn thế giới. Với thông tin hạn chế và nguồn lực cảnh sát không đủ, hầu hết các vụ việc vẫn chưa được giải quyết.Ở Anh, chỉ có 1 trường hợp bị buộc tội trong mỗi 1.000 trường hợp lừa đảo xảy ra.
Tuy nhiên, theo CTO của McAfee, khi nhận cuộc gọi khả nghi, chúng ta nên giữ bình tĩnh và đặt ra các câu hỏi mà chỉ người quen ở phía kia dây điện mới có thể biết câu trả lời. FTC cũng đã khuyến nghị rằng nếu bạn nhận cuộc gọi từ người thân yêu yêu cầu tiền, hãy tạm dừng và thử gọi riêng cho thành viên gia đình đó để xác minh thông tin. Dù có thể một cuộc gọi đáng ngờ đến từ số điện thoại của một thành viên trong gia đình, nhưng vẫn có khả năng đó là cuộc gọi giả mạo.
Chính phủ Mỹ đang nỗ lực kiểm soát các hoạt động lừa đảo sử dụng trí tuệ nhân tạo (AI). Trong tháng 2, thẩm phán Neil Gorsuch của Tòa án Tối cao Mỹ đã bày tỏ lo ngại về việc ngăn chặn các vụ lừa đảo AI do hạn chế của pháp luật, đặc biệt là trên các trang web không chịu trách nhiệm về nội dung được đăng bởi bên thứ ba.
Trong tháng 5 vừa qua, Phó Tổng thống Mỹ Kamala Harris đã nhấn mạnh trách nhiệm của các CEO của các công ty công nghệ hàng đầu trong việc bảo vệ xã hội khỏi những nguy cơ mà trí tuệ nhân tạo mang lại. Đồng thời, Cục Thương mại Liên bang cũng đã đưa ra thông điệp tương tự khi khuyến khích các công ty cần phải nắm rõ về những rủi ro và tác động của sản phẩm AI trước khi đưa ra thị trường.
Viết bình luận